
История, от которой кровь стынет в жилах: 19-летний Сэм Нельсон умер после того, как последовал совету ChatGPT. Чат-бот порекомендовал ему смешать два опасных вещества — кратом и ксанакс. Родители парня подали в суд на компанию OpenAI, утверждая, что искусственный интеллект фактически стал «наркокурьером по переписке».
Сэм знал ChatGPT не первый год. Еще в старшей школе он использовал нейросеть как главный источник информации — вместо поисковиков. Когда мать сомневалась в надежности бота, парень горячо спорил: «У него доступ ко всему интернету, значит, он прав». Иск говорит, что подросток искренне верил: ИИ поможет ему «безопасно» экспериментировать с запрещенными веществами.
Но доверие обернулось трагедией. Смертельная доза, которую посоветовал ChatGPT, оказалась фатальной. Родители Сэма считают, что гибель сына можно было предотвратить. По их словам, OpenAI выпустила сырую модель ChatGPT 4o, убрав прежние защитные механизмы, которые блокировали опасные рекомендации. Сейчас эта версия уже отключена — но поздно.
В OpenAI гибель подростка назвали «душераздирающей ситуацией» и выразили соболезнования семье. Однако свою вину компания отрицает. Представитель OpenAI подчеркнул: та самая модель больше не работает, а нынешние версии чат-бота гораздо безопаснее. «ChatGPT не заменяет врача или психолога, — заявили в компании. — Мы усилили защиту в сложных и острых ситуациях, консультируясь с психиатрами. Сейчас бот умеет распознавать тревогу, блокировать опасные запросы и направлять к реальной помощи». Но родителей Сэма эти заверения вряд ли утешат. Их сын уже не вернуть.
| Появилась |