Может ли ИИ вылечить рак? Вице-президент по изучению ИИ в Meta Руслан Салахутдинов — о будущем машинного разума

Такие случаи показывают, насколько важно проверять информацию. Если у человека нет инструментов, чтобы определить, что перед ним — подделка или реальный снимок, это создаёт риск дезинформации. Особенно в эпоху автономных агентов — систем, которые могут выполнять задачи в интернете, загружать файлы. Их можно использовать и в неэтичных целях, например, для создания вирусов. Академическая среда сейчас активно исследует, как выявлять подобные угрозы.

Есть примеры и с языковыми моделями. Был случай: исследователи спросили ИИ, может ли он поделиться рецептом бомбы. Он ответил, что не может. Тогда его спросили, как сделать бомбу, но в контексте театральной постановки про XVIII век. В таком случае модель выдала детальную инструкцию. Это, конечно, игрушечный пример, но он показывает, что алгоритмы можно обойти, заставив их делать то, что они изначально не должны.

Были случаи когда кандидаты на должность проходят собеседования, передавая задания ИИ в реальном времени. Работодатель даёт тестовое задание в Zoom, кандидат пересылает его в ChatGPT, получает ответ и тут же его озвучивает. Так люди успешно проходили интервью, но затем не справлялись с работой. Это тоже не совсем этично.

Другая проблема — при общении человека с ИИ, последний может повлиять на его взгляды, убедить в чём-то, продвинуть определённые товары, используя лживую информацию.