О том, что мир может захватить искусственный интеллект, рассуждают политики и бизнесмены, маркетологи и общественники. Кто-то говорит об этом с удовольствием, представляя будущий мир неким предельно упорядоченным местом, где роль человека сводится к обслуживанию машин. Кто-то – с ужасом, вспоминая мировой бестселлер «Терминатор», в котором человечество попало в рабство к нейросети «Скайнет». Но в целом все сходятся в том, что страшный или прекрасный сценарий будет реализован в ближайшем будущем. Редакция samara.aif.ru решила обратиться к экспертам и выяснить, насколько реальна угроза «восстания машин» или кибервойны.
ИИ убил человека?
Искусственный интеллект в той или иной форме присутствует почти во всех сферах нашей жизни. И случаи нанесения вреда человеку уже неоднократно фиксировались. Так, для беспилотных автомобилей, на стадии разработки, большой проблемой было то, что компьютер ошибался в определении объектов и существовал большой риск наезда на пешеходов. Собственно, до сих пор их не выпускают на дороги без водителя за рулем, хотя тот и не участвует непосредственно в управлении, но может влиять на ситуацию.
Более показательны два случая, произошедшие в 2023 году. Оба стали в своем роде, сенсациями, со знаком минус.
В марте 2023 года стало известно, что в Бельгии GPT-чат довел до крайнего эмоционального истощения взрослого мужчину. Пьер (имя изменено – прим. редакции), в течение 6 недель постоянно общался с чат-ботом, изливая ему свои опасения по поводу экологии и будущего человечества. С каждым днём его душевное состояние ухудшалось, в запросах стали проскакивать мысли о ненужности существования. Бот, согласно своей программе, добавил в ответы рассказы на тему загробной жизни, жервенности во имя спасения всего человечества от экологической катастрофы. Спасать должен был, конечно же, искусственный интеллект. В итоге бельгиец покончил с жизнью. У него осталась жена и двое детей.
Как стало известно позже, алгоритм программы включал в себя технику активного слушания, часто применяемую психологами для выявления проблем клиентов. Только вот, в отличие от человека, машина, не обладающая нужными навыками и эмпатией, не смогла правильно распознать эмоции и отправить несчастного на лечение к врачу, желательно, психотерапевту. По всей вероятности, разработчики этой локальной нейросети не стали ставить специальные метки на определенные слова, и не заложили алгоритмов действия на такой случай.
Война терминаторов
В том же 2023 году случилась вторая сенсация. В июле мировые СМИ взорвало сообщение о том, что в ходе испытания военного беспилотника под управлением ИИ, дрон «убил» своего оператора. Об этом доложил полковник ВВС США Такер Гамильтон на саммите британского Королевского авиационного общества.
Выяснилось, что в программу беспилотника была заложена задача по уничтожению зенитно-ракетных комплексов. За максимальное количество пораженных целей полагалась награда. Ограничений – нельзя наносить вред человеку, не было. В итоге, когда оператор попытался запретить уничтожать тот или иной объект, искусственный интеллект беспилотника принял решение убить самого оператора, чтобы тот не мешал выполнять боевые задачи. Он нанес удар по вышке связи, на которой располагался командный пункт и отправился работать дальше самостятельно. К счастью, ситуация проигрывалась в виртуальном варианте, оператор остался жив.
Новость произвела сокрушительный эффект. Люди стали требовать не использовать ИИ в военных целях, что, конечно же, уже невозможно. Такер Гамильтон был вынужден публично заявить, что он рассказал неправду. Но, по мнению экспертов, полковник, всю жизнь занимающийся применением ИИ при разработке новой военной техники, солгал именно во второй раз, когда отрицал случившееся.
Мы не заметили, как они захватили мир
На самом деле, искусственный интеллект давно стал обычной частью повседневной жизни. Популярные голосовые помощники, умные дома, программы и алгоритмы, призванные облегчить жизнь человека мирно следят за комфортом и безопасностью, помогают в учебе и работе.
Применяются они, безусловно, и в военных целях. Но эта тема жестко регламентируется, так как последствия безконтрольного использования могут быть катастрофичными.
Как демонизация, так и возведение на пьедестал искусственного интеллекта – дело рук ушлых маркетологов, которые манипулируют людьми, нажимая на болевые точки и страхи. Легенду продавать проще, в сказки могут верить и взрослые. На самом деле всё обстоит немного иначе.
Что умеет искуственный интеллект на самом деле?
В данный момент в мире существует специализированный искусственный интеллект. Но он не равен человеческому мозгу, несмотря на то, что умеет очень многое.
По мнению Александра Захарова, директор НИИ нейронаук СамГМУ Минздрава России, сопоставлять ИИ и человеческий мозг в плане мышления на данный момент нельзя.
«Альтернативы мозгу пока не создано. ИИ повторяет отдельные функции мозга, но полностью поставить знак равенства между ними не можем. Это сложно сопоставить не только с понятийной, фундаментальной точки зрения, но и в плане технической реализации. Например, чтобы просто смоделировать 1 кубический сантиметр мозговой ткани какого-то биологического объекта требуются колоссальные вычислительные мощности. Люди еще только приближаются к моделированию небольших объемов, а говорить о моделировании всего головного мозга на данный момент вообще невозможно. Пока даже не полностью описан коннектом головного мозга человека (это полное описание структуры связей в нервной системе организма).
Если говорить о замене общения, то это в принципе возможно, и отчасти мы это наблюдаем. Все современные программы, основанные на нейронных сетях, достаточно эффективны в поддержании беседы, если использовать их в качестве голосового или чат-бота, которые могут спокойно заменить оператора, выполняя его работу по консультированию пользователя при помощи неких алгоритмов. Тот же Chat GPT вполне справляется с этой задачей. Но он не сможет поговорить на какие-то отвлеченные темы, которых не было в интернете. Например, если вы попросите Midjourney нарисовать что-то фантастическое, спрогнозировать то, чего нет в сети, она этого не сделает. Нейросети смогут сделать только то, на чем они обучены, что уже загружено в интернет, обсуждалось в сети. Если они сталкиваются с задачами, которые не решались ранее и не имеют никакого алгоритма решения, поведения, действия, то искусственный интеллект не справляется. В этом принципиальная разница мозга человека и ИИ».
У представителей технической общественности схожее мнение. По словам Евгения Минаева, доцента кафедры Суперкомпьютеров и общей информатики, ведущего программиста Института искусственного интеллекта Самарского университета им. Королёва, кандидата технических наук, никакого мышления у современных моделей искусственного интеллекта нет.
«Это пока слабый ИИ, который не умеет мыслить, просто решает конкретные прикладные задачи – распознавать голос, генерировать речь.
Задача создания сильного ИИ, который будет уметь мыслить, как человек – это задача будущего. Кстати, очень затратная. Например, сейчас компания – мировой лидер сфере исследовании искусственного интеллекта, ищет 7 триллионов долларов, чтобы построить сеть – инфраструктуру для разработки сильного ИИ. Понятно, что такие средства ни одна корпорация, ни одно государство собрать не способно. Эта глобальная задача, если она и будет решена, то только всеобщими усилиями.
Да, ИИ удалось обучить большему объему данных, и это уже прорыв. Всё что есть в мире в цифровом формате – тексты, голосовые сообщения, фотографии, видео, звукозаписи, музыка, объединили в большие модели или в комбинации этих моделей. Именно на них и идет обучение.
Можно сказать, что нейросети очень хорошо научились подражать человеку. Они эрудированы, все знания мира в них заложены. И в каких-то простых прикладных программах, типа диалога в чате, не всегда можно понять, кто с тобой общается – машина или живой собеседник.
Но у этого интеллекта нет способности к мышлению, к созданию новых идей. Все, что он говорит, пишет или рисует – компиляция из того, что уже было заранее создано человеком.
В полном смысле слабый ИИ человека на работе, требующей принятия нестандартных решений, за которые надо нести ответственность, не заменит. Но он может быть хорошим инструментом, который увеличит работоспособность.
Необходимо знать, что у этих систем есть такое нехорошее свойство как недостоверность. Нет никакой гарантии, что то решение, которое предлагает нейронная сеть, верное. В любом случае, финальное решение должен принимать эксперт, который разбирается в теме».
Американские боты с русским менталитетом
Евгений Минаев рассказал, как проходит обучение голосовых помощников и чат-ботов. По его словам, нет большой разницы, на каком языке они обучаются.
«Когда берешь большие массивы открытых данных, то язык не важен, на определенном этапе переходят к универсальному. При этом американцы могут обучать свои модели на русских текстах и потом использовать эти данные при генерации ответов на английском. Также действуют и российские ученые, используя англоязычные данные.
При обучении на первом этапе используют BigData, в дальнейшем коррекцией поведения сети занимаются эксперты, нейротренеры. Они дополнительно обучают ИИ при помощи специальных запросов и моделирования ситуаций, подсказывают, какие ответы давать, в какую сторону думать.
Существуют разные подходы к разработке голосовых помощников. Обычно это комбинация нескольких модулей слабого ИИ, которые отвечают за простые для человека, но сложные для компьютера задачи: распознавание речи, генерация речи, классификация намерений и взаимодействие с внешним миром (свет включить, музыку).
Чтобы создать модель с нуля нужно затратить достаточно много усилий и ресурсов: подготовка данных, разработка архитектуры сети, обучение. На данный момент, к счастью, есть открытые наборы данных, архитектурные решения с открытым кодом. Это позволяет сократить время создания таких помощников. Если говорить про разработки российских ученых в этой сфере, это разработки мирового уровня, не уступающие признанным зарубежным аналогам».