С началом разворачивания Google прямых ответов AI Overview в результатах поиска пользователи стали замечать в них «галлюцинации», которые дает искусственный интеллект.
Пользователи Reddit обратили внимание, что в перечень адекватных советов, как предотвратить сползание начинки с пиццы, ИИ включил рекомендацию всыпать в соус ⅛ чашки клея «для усиления безвкусицы». ИИ предлагает прямо вредные советы, что делать при укусе ядовитой змеи, ошибается в определении возраста пятидесятилетних, советует сменить «жидкость для поворотников» и путает биографии президентов США с их однофамильцами, пишет Fortune.
По мере того, как ИИ совершенствуется, ошибки будут становиться менее заметными и оттого более опасными. Исправить это непросто, потому что проблема в итоге упирается в критерии истины, понимание юмора и реальный жизненный опыт.
Это хорошо видно в случае с клеем для пиццы. Рекомендация оказалась взята из давнего шуточного поста на Reddit. Последний не так давно заключил контентное соглашение с Google, причем пользователи сразу же предупреждали компанию о токсичности значительной части контента форумов. Более того, клей действительно иногда применяют для улучшения внешнего вида пиццы — например, при съемках рекламы — а слово «tackiness» (безвкусица) может иногда означать и текстуру еды.
Для рынка важнее, что «отсебятина» ИИ в поиске лишает поисковики былой защиты от исков: они больше не могут всегда утверждать, что показывают только чужой контент, замечает Vox. Впрочем, если компания докажет, что ИИ только заимствовал ложную информацию, она скорее всего избежит ответственности.