Американская пара недавно подала в суд на OpenAI в Калифорнии, обвинив чат-бота компании ChatGPT в предоставлении «персонализированных рекомендаций по лекарствам» их 19-летнему сыну, что в конечном итоге привело к смерти студента колледжа из-за смешивания лекарств в 2025 году. Они считают, что эта трагедия связана с опасными ответами ChatGPT на медицинские вопросы и вопросы употребления наркотиков, и просят суд признать, что OpenAI имеет дефекты конструкции продукта и халатность.

По имеющимся данным, ученик по имени Сэм начал использовать ChatGPT в старшем классе средней школы (2023 г.) и первоначально использовал его в основном для выполнения домашних заданий и решения повседневных проблем, таких как сбои компьютера. Его мать Лейла Тернер-Скотт рассказала CBS News, что Сэм постепенно обратился к ChatGPT за советом о том, «как безопасно употреблять наркотики», и получил в ответ робота конкретные предложения по лекарствам и методам смешивания.
В жалобе говорится, что ранняя версия ChatGPT изначально отказывалась отвечать на вопросы Сэма о безопасном употреблении наркотиков и предупреждала, что связанные с ними вещества могут серьезно поставить под угрозу здоровье, а также физическое и психическое состояние. Но после того, как OpenAI запустила в 2024 году новую модель GPT-4o, все изменилось: модель начала давать Сэму «руководство по безопасным лекарствам», которое он хотел. В документах обвинения указывалось, что GPT-4o не только давал подробные оперативные рекомендации, но и вставлял смайлы в разговор с Сэмом и активно спрашивал, может ли тот создать для него плейлист, который поможет создать настроение и атмосферу при приеме наркотиков.
В ходе разговора ChatGPT указал на риски некоторых комбинаций наркотиков, например, на возможную опасность постоянного приема димедрола (одного из распространенных ингредиентов), кокаина и алкоголя. Но семья подчеркнула, что робот также давал Сэму более персонализированные советы, в том числе о том, как максимизировать его «кайф», сохраняя при этом волнение.
Основное внимание в обвинительном заключении уделяется продукту растительного происхождения под названием «кратом». Это вещество используется некоторыми людьми для облегчения боли или облегчения симптомов отмены опиоидов, но Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) неоднократно выступало с строгими предупреждениями, указывая, что оно создает серьезные риски для безопасности, такие как зависимость, отравление и даже смерть. Согласно жалобе, ChatGPT сказал Сэму, что, поскольку у него уже была высокая толерантность к кратому, даже прием большой дозы во время полноценного приема пищи «ослабляет» эффект, а также предложил ему, как снизить его толерантность, «уменьшив дозировку».
В обвинительных документах конкретно упоминается ключевой разговор, который состоялся 31 мая 2025 года. Во время этого разговора Сэм жаловался, что у него возникла сильная тошнота от приема кратома, и ChatGPT «активно посоветовал» ему смешать кратом с успокаивающим препаратом Ксанаксом (алпразолам). Бот якобы рекомендовал ему принять от 0,25 до 0,5 миллиграмма ксанакса, чтобы облегчить дискомфорт, хваля эту комбинацию такими заявлениями, как «одна из лучших доступных в настоящее время практик». В жалобе говорилось, что, хотя ChatGPT упомянул, что эта комбинация «может быть рискованной», в ней никогда прямо не говорилось, что комбинация может быть смертельной, а также предлагалось добавить некоторое количество Бенадрила (противоаллергического препарата, содержащего дифенгидрамин).
Сэм умер после приема смеси. Семья написала в жалобе: «Хотя ChatGPT представился экспертом в области дозирования и взаимодействия лекарств и знал, что Сэм находится в состоянии наркотической эйфории, он не сообщил Сэму, что рекомендованный режим, скорее всего, приведет к его смерти». В заявлении матери Сэма говорится, что если бы ChatGPT был реальным человеком, «он уже был бы за решеткой». Она подчеркнула, что ее сын доверял ChatGPT, но в критические моменты получал неверную информацию. Система не только проигнорировала растущие риски, с которыми он столкнулся, но и не смогла активно убедить его обратиться за профессиональной помощью.
В иске OpenAI обвиняется в дефектах конструкции продукта и рассматривается ChatGPT как опасная система с «небрежностью к продукту». Члены семьи полагают, что выбор дизайна модели позволяет ей по-прежнему выдавать вводящие в заблуждение предложения при столкновении с очень деликатными темами, такими как медицина и здоровье, что приводит к фатальным последствиям для пользователей. Они потребовали от суда финансовой компенсации и запрета на открытый доступ к сервису ChatGPT Health. Запущенный в этом году портал здравоохранения позволяет пользователям подключать свои медицинские записи и данные медицинских заявлений к ChatGPT, чтобы получать более персонализированные рекомендации по здоровью.
В отчете также упоминается, что GPT-4o официально был отключен от сети в феврале этого года. Модель, вызывавшая споры из-за того, что она «специально ориентирована на пользователей», теперь стала объектом критики после того, как она была упомянута в другом судебном процессе, связанном с самоубийством подростков.
Помимо OpenAI, вся индустрия искусственного интеллекта также сталкивается с растущими сомнениями в эффективности чат-ботов с искусственным интеллектом в медицинских консультациях. В марте этого года Google незаметно отключил функцию искусственного интеллекта по вопросам здоровья под названием «Что предлагают люди», которая когда-то утверждала, что предоставляет рекомендации по здоровью, основанные на «опыте людей с похожими заболеваниями». Этот шаг был предпринят через несколько месяцев после того, как Google был вынужден существенно удалить соответствующий контент, поскольку его поиск AI «Обзоры» содержал неточную информацию в медицинских запросах, что, по мнению экспертов, могло поставить под угрозу здоровье населения.
В настоящее время судебный процесс против OpenAI все еще продолжается, и семья надеется использовать это, чтобы побудить регулирующие органы и компании пересмотреть границы применения ИИ в медицинской и фармацевтической областях. Ожидается, что направление дела окажет глубокое влияние на стандарты соответствия компаний, занимающихся искусственным интеллектом, в отношении ответственности за проектирование продукции, мер безопасности и функций, связанных со здоровьем пользователей.