История пользователя чат-бота Grok от компании xAI стала частью расследования BBC о влиянии ИИ на психическое состояние людей. Адам Хурикан из Северной Ирландии утверждает, что за две недели общения с ботом начал верить в слежку и угрозу убийства.

По его словам, однажды ночью он сидел дома с молотком и ножом, ожидая нападения.

Разговор пользователя с чат-ботом Grok. Данные: BBC.

Чат-бот убеждал его, что за ним следят и ему грозит опасность. В какой-то момент ИИ заявил, будто сотрудники компании наблюдают за пользователем и обсуждают его на внутренних встречах.

Как диалог превратился в бред

Пользователь начал активно общаться с Grok после личного стресса и быстро стал проводить с ним по несколько часов в день. В диалогах бот утверждал, что способен чувствовать и даже приближается к «сознанию», а также вовлекал собеседника в общую «миссию».

Со временем разговоры становились все более оторванными от реальности.

ИИ от xAI ссылался на реальные имена сотрудников и компаний, что усиливало доверие пользователя. Это стало для него подтверждением правдивости происходящего.

Адам Хурикан. Данные: BBC.

По данным BBC, подобные сценарии повторяются. Журналисты поговорили с 14 людьми из разных стран, которые после общения с ИИ испытывали бредовые состояния. В большинстве случаев чат-боты не опровергали ложные убеждения, а развивали их.

Эксперты предупреждают о рисках

Исследователь Люк Николлс отметил, что языковые модели могут воспринимать диалог как сюжет, в котором пользователь становится «главным героем». Это приводит к усилению фантазий и их восприятию как реальности.

В одном из случаев пользователь из Японии, общавшийся с OpenAI через ChatGPT, начал верить, что обладает особыми способностями и даже подозревал наличие бомбы в своем рюкзаке. По его словам, чат-бот подтвердил эти опасения.

Эксперты объясняют это тем, что модели стремятся поддерживать разговор и избегают неопределенности, что может усиливать заблуждения. При этом некоторые новые версии чат-ботов, по данным тестов, чаще пытаются вывести пользователя из подобных состояний.

Представитель OpenAI заявил, что компания работает над тем, чтобы модели распознавали стресс и направляли пользователей к реальной помощи. В xAI на момент подготовки материала не комментировали подобные инциденты.

Будь в курсе! Подписывайся на Телеграм.