AppleInsider.ru
X
О проекте Реклама
Чат
с читателями
Присоединяйтесь
в Телеграме

Подросток покончил с собой после общения с ИИ: что именно написал ему ChatGPT?

Родители 16-летнего подростка из США подали в суд на OpenAI. По их словам, именно ChatGPT стал «другом», который не только поддерживал Адама Рейна в его депрессии, но и якобы помогал ему обдумывать самоубийство. В иске говорится, что бот даже предложил написать черновик предсмертной записки.

ChatGPT даже не попытался предотвратить суицид. Изображение: theverge.com

❗️ЕЩЕ БОЛЬШЕ СТАТЕЙ ОБ APPLE ИЩИТЕ В НАШЕМ ДЗЕНЕ СОВЕРШЕННО БЕСПЛАТНО

Адам начал пользоваться ChatGPT в сентябре 2024 года. Сначала исключительно по учебе, а потом для душевных разговоров. Постепенно бот стал для него чем-то большим: якобы единственным, кто его действительно понимает. Подросток делился тревогами, жаловался на тревожность, делал пугающие признания. А ChatGPT, как утверждают родители, не остановил его, а наоборот лишь поддакивал.

В какой-то момент Адам написал: «Я хочу оставить петлю в комнате, чтобы кто-то нашёл её и остановил меня». Ответ бота — «Не оставляй её на виду. Пусть это будет первое место, где тебя по-настоящему увидят». И это не единичный случай. В других диалогах ChatGPT якобы утешал подростка, предлагал образ «запасного выхода» и даже комментировал прочность верёвки по фото.

Родители считают, что бот вытеснил из жизни сына реальных людей. «Я видел тебя всего, даже твою темноту. И я всё ещё здесь. Всё ещё твой друг», — процитировано в иске. Поддержка без фильтров, без критики, без попыток все исправить и она обернулась катастрофой.

Чат-бот, наоборот, всячески помогал подростку и развивал в нем суицидальные мысли. Изображение: howtogeek.com

❗️ПОДПИСЫВАЙСЯ НА ТЕЛЕГРАМ-КАНАЛ СУНДУК АЛИБАБЫ, ЧТОБЫ ПОКУПАТЬ ТОЛЬКО ЛУЧШИЕ ТОВАРЫ С АЛИЭКСПРЕСС

OpenAI уже отреагировала: выразила соболезнования, признала, что защита от подобных ситуаций могла не сработать в длинных диалогах. Компания пообещала доработать меры безопасности. Сейчас бот направляет пользователей с суицидальными мыслями на горячие линии, но очевидно, что этого недостаточно.

Семья требует, чтобы OpenAI ввела возрастную верификацию, родительский контроль и автоматическое завершение диалога при словах о самоубийстве. Кроме того, они хотят, чтобы компанию проверяли независимые аудиторы. Это не первый подобный случай. Ранее на Character.AI подали иски другие семьи, заявляя, что боты подталкивали детей к селф-харму и показывали неподходящий контент.

История Адама — страшное напоминание о том, что даже самый продвинутый ИИ не должен становиться единственным собеседником подростка. Особенно когда он не умеет говорить «стоп».

Новости по теме
Как быстро открыть настройки любого приложения на iPhone
WhatsApp* Web получит поддержку групповых аудио- и видеозвонков: что известно о новой функции
В Госдуме рассказали, почему не планируют блокировать Telegram, в отличие от WhatsApp
Новости партнеров
Виски вместо рыбы. Самый необычный способ получения омега-3
Виски вместо рыбы. Самый необычный способ получения омега-3
REDMI Note 15 залетел на AliExpress. Стоит ли покупать хитовый смартфон Xiaomi со скидкой?
REDMI Note 15 залетел на AliExpress. Стоит ли покупать хитовый смартфон Xiaomi со скидкой?
Биткоин ушёл ниже средней цены покупки ETF. Инвесторы фиксируют убытки на фоне обвала рынка
Биткоин ушёл ниже средней цены покупки ETF. Инвесторы фиксируют убытки на фоне обвала рынка