Домой Новости ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой в США

ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой в США

67
0

Сегодня, 1:18 | Рита Цветкова Рита Цветкова Происшествия

ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой в США

1

ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой в США

0

Психически неуравновешенный мужчина, страдающий параноидальными мыслями, боялся, что мама его отравит. ИИ его в этом убедил.

ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой в США

Фото: www.globallookpress.com/Algi Febri Sugita

ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой в США

Перейти в Дзен Следите за нашими новостями
в удобном формате

ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой в США

Есть новость? Присылайте »

ChatGPT подтолкнул 56-летнего экс-сотрудника Yahoo Стайн-Эрика Сольберга из американского штата Коннектикут убить свою 83-летнюю мать и покончить с собой. У мужчины были проблемы с психикой, но искусственный интеллект (ИИ), которого он выбрал в собеседники, убеждал его в собственном здравомыслии. Об этом сообщается в материале газеты The Wall Street Journal (WSJ).

Сольберг обладал большим опытом работы в сфере программного управления и маркетинга с долгой историей болезни. Весной 2025 года его психическое состояние стало ухудшаться: преследовали мысли о преследовании и слежке, мужчине также казалось, что мать планирует его отравить.

Журналисты издания выяснили, ознакомившись с материалами расследования, что чат-бот поддерживал его подозрения и соглашался «почти со всеми утверждениями».

ИИ, например, подтверждал, что за Сольбергом следят, что чек из китайского ресторана содержит зашифрованные послания с «демоническими символами», а также некие отсылки к матери и бывшей партнерше.

Был также случай с бутылкой водки, которую Стайн-Эрик заказал и потом спросил у бота, нет ли в ней чего-нибудь подозрительного. ИИ ответил, что это может быть доставкой с целью смертельного отравления.

Ситуацию прокомментировал психиатр из Калифорнийского университета, который лечил пациентов с вызванными ИИ психозами. Как отметил эксперт, когда реальность перестает сопротивляться убеждениям человека с психозом, этот недуг «процветает».

В данном случае именно чат-бот помог Сольбергу стереть грань между его паранойей и реальностью. В публикации подчеркивается, что это первое зафиксированное убийство, к которому психически нестабильного человека подтолкнул ИИ.

Ранее 5-tv.ru рассказывал, как искусственный интеллект вытесняет реальных людей из профессий.

Еще больше новостей — у Пятого канала в мессенджере MAX

Суицид Убийство Громкие убийства Искусственный интеллект Мужчины США +13°

ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой в США

752 мм рт. ст.

ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой в США

82% 80.33
0.04 94.05
0.56 Парк астрологических аттракционов: любовный гороскоп на осень 2025

Нашли ошибку?

Укажите ваш email:

Отправить

Спасибо! Мы получили Ваше сообщение.

Закрыть

ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой в США