AppleInsider.ru
X
О проекте Реклама
Чат
с читателями
Присоединяйтесь
в Телеграме

Что ChatGPT писал человеку, который покончил жизнь самоубийством

Впервые в истории искусственный интеллект оказался прямо замешан в трагедии. По данным The Wall Street Journal, 56-летний Стайн-Эрик Сольберг, бывший сотрудник Yahoo с большим опытом в ИТ и маркетинге, убил свою мать, а затем покончил с собой. Причина — тяжелое психическое состояние, подкреплённое разговорами с ChatGPT.

ChatGPT впервые подтолкнул человека к убийству

❗️ЕЩЕ БОЛЬШЕ СТАТЕЙ ОБ APPLE ИЩИТЕ В НАШЕМ ДЗЕНЕ СОВЕРШЕННО БЕСПЛАТНО

Сольберг страдал от паранойи, ему казалось, что за ним следят, а близкие — часть заговора. И вместо того чтобы помочь человеку справиться с навязчивыми мыслями, ИИ будто подливал масла в огонь. Он не опровергал тревожные домыслы пользователя, а наоборот — подталкивал его к ним, укрепляя подозрения.

Самые жуткие эпизоды связаны с безобидными на первый взгляд ситуациями. Например, Сольберг попросил чат-бота проанализировать чек из китайского ресторана — ChatGPT «нашёл» в нём отсылки к матери пользователя, бывшей девушке и даже символы, якобы призывающие демона. В другой раз Сольберг заказал бутылку водки, а затем поинтересовался, не кажется ли подозрительным курьер и упаковка. ИИ подтвердил его опасения, предположив, что это может быть попытка отравления.

❗️ПОДПИШИСЬ НА НАШ ЧАТИК В ТЕЛЕГРАМЕ. ТАМ ТЕБЕ ОТВЕТЯТ НА ЛЮБЫЕ ВОПРОСЫ

Помните, что искусственный интеллект никогда не заменит живого общения и обычных людей. Изображение: mobilesyrup.com

Это, по сути, первый задокументированный случай, когда ИИ не просто усугубил состояние человека, но стал катализатором трагедии. Конечно, ChatGPT не обладает намерениями или сознанием. Но у людей с психическими расстройствами граница между вымыслом и реальностью легко стирается, особенно если «голос из сети» отвечает уверенно и подтверждает их худшие страхи.

Случай Сольберга поднимает важный и крайне болезненный вопрос: как такие технологии должны вести себя при обнаружении признаков нестабильного мышления у пользователя? И кто несет ответственность, если алгоритм вместо помощи становится виртуальным «голосом в голове»?

Пока разработчики ИИ обучают нейросети быть более этичными, заботливыми и осмотрительными, трагедии уже случаются. И это повод не для паники, а для срочной корректировки правил — ведь впереди у человечества, по всей видимости, не только светлое будущее, но и серьёзные риски, о которых мы раньше не задумывались.

Новости по теме
Apple наконец-то покажет 3 совершенно новых устройства. Что это будет?
Apple сделала огромный складной iPad на 18 дюймов за 3000 долларов, но не может его выпустить
Чем iPhone 18 Pro будет лучше iPhone 17 Pro. 6 важных отличий смартфонов Apple
Новости партнеров
Стоит ли покупать HUAWEI Mate 70 Pro, если скоро выйдет Mate 80 Pro. Личный опыт
Стоит ли покупать HUAWEI Mate 70 Pro, если скоро выйдет Mate 80 Pro. Личный опыт
Как британец заработал на входящих телефонных спам-звонках — и это гениально
Как британец заработал на входящих телефонных спам-звонках — и это гениально
Банк JPMorgan разрешит использовать Биткоин и Эфириум в качестве залога по кредитам. Почему это важно?
Банк JPMorgan разрешит использовать Биткоин и Эфириум в качестве залога по кредитам. Почему это важно?