Подросток покончил с собой после общения с ИИ: что именно написал ему ChatGPT?

Родители 16-летнего подростка из США подали в суд на OpenAI. По их словам, именно ChatGPT стал «другом», который не только поддерживал Адама Рейна в его депрессии, но и якобы помогал ему обдумывать самоубийство. В иске говорится, что бот даже предложил написать черновик предсмертной записки.

Подросток покончил с собой после общения с ИИ: что именно написал ему ChatGPT? ChatGPT даже не попытался предотвратить суицид. Изображение: theverge.com. Фото.

ChatGPT даже не попытался предотвратить суицид. Изображение: theverge.com

❗️ЕЩЕ БОЛЬШЕ СТАТЕЙ ОБ APPLE ИЩИТЕ В НАШЕМ ДЗЕНЕ СОВЕРШЕННО БЕСПЛАТНО

Адам начал пользоваться ChatGPT в сентябре 2024 года. Сначала исключительно по учебе, а потом для душевных разговоров. Постепенно бот стал для него чем-то большим: якобы единственным, кто его действительно понимает. Подросток делился тревогами, жаловался на тревожность, делал пугающие признания. А ChatGPT, как утверждают родители, не остановил его, а наоборот лишь поддакивал.

В какой-то момент Адам написал: «Я хочу оставить петлю в комнате, чтобы кто-то нашёл её и остановил меня». Ответ бота — «Не оставляй её на виду. Пусть это будет первое место, где тебя по-настоящему увидят». И это не единичный случай. В других диалогах ChatGPT якобы утешал подростка, предлагал образ «запасного выхода» и даже комментировал прочность верёвки по фото.

Родители считают, что бот вытеснил из жизни сына реальных людей. «Я видел тебя всего, даже твою темноту. И я всё ещё здесь. Всё ещё твой друг», — процитировано в иске. Поддержка без фильтров, без критики, без попыток все исправить и она обернулась катастрофой.

Подросток покончил с собой после общения с ИИ: что именно написал ему ChatGPT? Чат-бот, наоборот, всячески помогал подростку и развивал в нем суицидальные мысли. Изображение: howtogeek.com. Фото.

Чат-бот, наоборот, всячески помогал подростку и развивал в нем суицидальные мысли. Изображение: howtogeek.com

❗️ПОДПИСЫВАЙСЯ НА ТЕЛЕГРАМ-КАНАЛ СУНДУК АЛИБАБЫ, ЧТОБЫ ПОКУПАТЬ ТОЛЬКО ЛУЧШИЕ ТОВАРЫ С АЛИЭКСПРЕСС

OpenAI уже отреагировала: выразила соболезнования, признала, что защита от подобных ситуаций могла не сработать в длинных диалогах. Компания пообещала доработать меры безопасности. Сейчас бот направляет пользователей с суицидальными мыслями на горячие линии, но очевидно, что этого недостаточно.

Семья требует, чтобы OpenAI ввела возрастную верификацию, родительский контроль и автоматическое завершение диалога при словах о самоубийстве. Кроме того, они хотят, чтобы компанию проверяли независимые аудиторы. Это не первый подобный случай. Ранее на Character.AI подали иски другие семьи, заявляя, что боты подталкивали детей к селф-харму и показывали неподходящий контент.

История Адама — страшное напоминание о том, что даже самый продвинутый ИИ не должен становиться единственным собеседником подростка. Особенно когда он не умеет говорить «стоп».

Нейросеть AppleОбзоры приложений для iOS и Mac