Скрытая угроза или миф: эксперты рассказали, могут ли нейросети "воровать" авторский контент
Эксперты раскрыли, действительно ли ИИ ворует авторский контент и отдаёт его другим пользователям. Люди опасаются того, что личные и уникальные тексты могут попасть в чужие руки.
Искусственный интеллект (ИИ) всё больше проникает в жизнь современного человека. Однако вокруг нейросетей есть множество страхов. И один из них связан с тем, что пользователь может поделиться с ИИ личной, умной или уникальной информацией, а он её просто "сворует". Эксперты отметили, может ли это быть на самом деле, как сообщает 5-tv.ru.
У нейросетей "своя память". Когда пользователь пишет что-то для ИИ, то текст не откладывается в "папку", чтобы потом его достать. У чат-бота нет архива и доступа к истории диалогов других пользователь. ИИ просто не помнит личность того, с кем общался, и его текст как объект. Нейросеть устроена так, что работает лишь с тем, что видит в конкретный момент.
Распространённая ошибка – ИИ учится на текстах и сразу использует их для других. Обучение нейросетей на самом деле происходит не в реальное время, а в запланированных этапах. В лучшем случае диалоги пользователей в "обезличенном виде" могут использоваться для улучшения качества модели.
Эксперты уточнили, ИИ не может взять абзац пользовательского текста и передать другому. Нейросеть не сохраняет голос, лексику или интонацию пользователей. Если что-то кажется похожим, это результат языковых закономерностей, а не кража. Оказалось, что страх, что ИИ "ворует" тексты и отдаёт другим пользователям – миф.
Уважаемые читатели Царьграда!
Если вам есть чем поделиться с редакцией Царьград Санкт-Петербург, присылайте свои наблюдения, вопросы и новости на наши странички в социальных сетях "Вконтакте", "Одноклассники", на наш "Телеграм-канал" или на электронную почту spb@Tsargrad.TV