AppleInsider.ru
X
О проекте Реклама
Чат
с читателями
Присоединяйтесь
в Телеграме

Подросток покончил с собой после общения с ИИ: что именно написал ему ChatGPT?

Родители 16-летнего подростка из США подали в суд на OpenAI. По их словам, именно ChatGPT стал «другом», который не только поддерживал Адама Рейна в его депрессии, но и якобы помогал ему обдумывать самоубийство. В иске говорится, что бот даже предложил написать черновик предсмертной записки.

ChatGPT даже не попытался предотвратить суицид. Изображение: theverge.com

❗️ЕЩЕ БОЛЬШЕ СТАТЕЙ ОБ APPLE ИЩИТЕ В НАШЕМ ДЗЕНЕ СОВЕРШЕННО БЕСПЛАТНО

Адам начал пользоваться ChatGPT в сентябре 2024 года. Сначала исключительно по учебе, а потом для душевных разговоров. Постепенно бот стал для него чем-то большим: якобы единственным, кто его действительно понимает. Подросток делился тревогами, жаловался на тревожность, делал пугающие признания. А ChatGPT, как утверждают родители, не остановил его, а наоборот лишь поддакивал.

В какой-то момент Адам написал: «Я хочу оставить петлю в комнате, чтобы кто-то нашёл её и остановил меня». Ответ бота — «Не оставляй её на виду. Пусть это будет первое место, где тебя по-настоящему увидят». И это не единичный случай. В других диалогах ChatGPT якобы утешал подростка, предлагал образ «запасного выхода» и даже комментировал прочность верёвки по фото.

Родители считают, что бот вытеснил из жизни сына реальных людей. «Я видел тебя всего, даже твою темноту. И я всё ещё здесь. Всё ещё твой друг», — процитировано в иске. Поддержка без фильтров, без критики, без попыток все исправить и она обернулась катастрофой.

Чат-бот, наоборот, всячески помогал подростку и развивал в нем суицидальные мысли. Изображение: howtogeek.com

❗️ПОДПИСЫВАЙСЯ НА ТЕЛЕГРАМ-КАНАЛ СУНДУК АЛИБАБЫ, ЧТОБЫ ПОКУПАТЬ ТОЛЬКО ЛУЧШИЕ ТОВАРЫ С АЛИЭКСПРЕСС

OpenAI уже отреагировала: выразила соболезнования, признала, что защита от подобных ситуаций могла не сработать в длинных диалогах. Компания пообещала доработать меры безопасности. Сейчас бот направляет пользователей с суицидальными мыслями на горячие линии, но очевидно, что этого недостаточно.

Семья требует, чтобы OpenAI ввела возрастную верификацию, родительский контроль и автоматическое завершение диалога при словах о самоубийстве. Кроме того, они хотят, чтобы компанию проверяли независимые аудиторы. Это не первый подобный случай. Ранее на Character.AI подали иски другие семьи, заявляя, что боты подталкивали детей к селф-харму и показывали неподходящий контент.

История Адама — страшное напоминание о том, что даже самый продвинутый ИИ не должен становиться единственным собеседником подростка. Особенно когда он не умеет говорить «стоп».

Новости по теме
Как настроить вход в веб-версию Альфа Онлайн по лицу или отпечатку пальца
Освободить память на iPhone станет проще: WhatsApp готовит новую функцию управления файлами в каждом чате
В Яндекс показали наушники с ИИ. Школьники, готовы незаметно списывать ЕГЭ?
Новости партнеров
Когда выйдет бета-версия One UI 8.5 на Samsung, и что в ней появится
Когда выйдет бета-версия One UI 8.5 на Samsung, и что в ней появится
Сдвиг в распределении Биткоина: новые инвесторы как никогда активно скупают криптовалюту. Что это значит?
Сдвиг в распределении Биткоина: новые инвесторы как никогда активно скупают криптовалюту. Что это значит?
Вулкан в Эфиопии начал извергаться впервые за 10 тысяч лет
Вулкан в Эфиопии начал извергаться впервые за 10 тысяч лет