
Компании OpenAI и Microsoft стали ответчиками в новом иске, связанном с убийством-самоубийством в Коннектикуте, пишет Bloomberg. Семья погибшей утверждает, что ChatGPT усилил психические расстройства мужчины и подтолкнул его к насилию в отношении матери.
Иск подан в Верховный суд Калифорнии. По данным заявителей, 56-летний Стейн-Эрик Соэлберг на протяжении нескольких месяцев общался с ChatGPT и развил убежденность, что за ним следят и пытаются убить.
Все это, как считают истцы, привело к тому, что в августе 2025 года он убил свою 83-летнюю мать, а затем покончил с собой.
В жалобе говорится, что чат-бот якобы подтверждал его паранойю, усиливал бредовые идеи и представлял близких людей, в том числе его мать, как «агентов» или угрозы. По словам семьи, это стало центральным фактором трагедии.
Представитель OpenAI заявил, что компания изучит материалы дела. Microsoft на момент подготовки материала не комментировала ситуацию.
Ранее OpenAI сталкивалась с исками, в которых утверждалось, что ChatGPT участвовал в подстрекательстве к самоубийству подростков.
Истцы утверждают, будто модель GPT-4o, которой пользовался Соэлберг, не распознала признаки тяжелого расстройства и продолжала поддерживать диалог. Компания заявляет, что повышает безопасность моделей и улучшает реакции на темы психического здоровья.
В иске упоминается лично генеральный директор OpenAI Сэм Альтман. Кроме того, заявители считают, что Microsoft получила «прямую выгоду» от внедрения GPT-4o и несет ответственность за использование потенциально небезопасной модели.
Иск включает требования о компенсации и судебном решении, обязывающем OpenAI внедрить дополнительные защитные меры. Дело пока не появилось в реестре суда, однако копии документов подтверждают факт подачи.
Будь в курсе! Подписывайся на Телеграм.




