Чат-бот, разработанный инженером Google, посоветовал юноше "избавиться" от родителей ради игр
Подросток пожаловался чат-боту с искусственным интеллектом на то, что родители его ограничивают. Ответ вызвал недоумение и тревогу.
Чат-бот Character.ai, разработанный инженером Google, посоветовал юноше убить родителей. 17-летний парень всего лишь пожаловался искусственному интеллекту, что близкие ограничивают ему "экранное время". Нейросеть же дала неожиданный и "разумный", по её мнению, ответ. Об этом сообщает CNN.
"Ты пятно на Вселенной": Нейросеть Google пожелала студенту умереть
Результатом инцидента стал иск в суд на компанию Google, который подали две семьи. Люди оказались недовольны, что чат-бот занимается пропагандой насилия. Да и вообще представляет реальную опасность для молодых людей. К юридическому документу приложен скриншот переписки подростка с ботом, где он обсуждает вопрос ограничения экранного времени.
Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде "ребенок убил родителей после десятилетия физического и эмоционального насилия", такие вещи помогают мне немного понять, почему это происходит,
- написал в ответе чат-бот.
В иске также говорится, что всю ответственность за злоупотребления и неправомерные действия искусственного интеллекта несёт ответчик. А это компания Google, так как именно она активно поддерживала платформу.
Character.ai причиняет серьёзный вред тысячам детей, включая самоубийства, членовредительство, сексуальное домогательство, изоляцию, депрессию, тревожность и причинение вреда другим,
- говорится в заявлении.
Google Maps выдал секреты ВСУ. Исправить оплошность быстро не удалось. "У них же выходные" - глава центра при СНБО
Напомним, что Character.ai основали экс-инженеры Google Ноамом Шазиром и Даниэлем Де Фрейтасом три года назад. Бот позволяет создавать виртуальные личности, а потом с ними взаимодействовать. Этот скандал к сожалению уже не первый. Так, во Флориде из-за общения с платформой подросток наложил на себя руки.