От выявления призывов к терроризму до диагностики заболеваний. Как ИИ служит людям
Сейчас машины задействованы в самых разных областях деятельности человека, отмечают эксперты.
Искусственный интеллект всё больше входит в нашу жизнь, однако некоторые скептики сомневаются в том, насколько ощутимую пользу он приносит. Однако, как поясняют эксперты, ИИ - это не только нейросети.
Искусственный интеллект - технология, которая будет определять в ближайшие десятилетия, а может быть, столетия структуру общества, экономику и во многом политику. Почти всё, что вы видите рядом с собой, использует искусственный интеллект: смартфоны, автомобили, дорожная инфраструктура - светофоры те же,
- пояснил доктор технических наук, профессор, член-корреспондент Российской академии наук Владимир Арлазаров в беседе с корреспондентом URA.RU.
По словам Арлазарова, специалиста в области системного программирования, теории игр, искусственного интеллекта, систем управления базами данных и информационных технологий, сейчас техника способна оперативнее решить, что делать, в то время как человек нередко сомневается в своих навыках. К примеру, ИИ помогает учёным создавать новые сплавы и материалы, для разработки которых раньше требовались многие годы.
Он способен выполнять задачи, которые требуют от человека многих усилий и лет для подготовки. Например, постановка медицинского диагноза или расчёт дозы наркоза,
- привёл пример профессор.
Ещё одна важная задача - обеспечение безопасности. Так, планируется обучить ИИ определять призывы к терроризму в соцсетях. Это особенно актуально на фоне последних событий в Подмосковье и последующих психических атак на жителей России, когда в социальных сетях распространяются призывы к массовым убийствам.
Только за два дня Роскомнадзор выявил и ограничил доступ к 11 ТГ-каналам с таким контентом, сообщает "Газета.ру". В это же время в самом мессенджере пресекли десятки тысяч попыток отправить противоправные сообщения, одновременно навечно заблокировав тысячи пользователей.
С точки зрения искусственного интеллекта обучить нейросети, чтобы они определяли призывы к терроризму, к чему-то незаконному, технически вполне можно,
- комментирует проблему эксперт по кибербезопасности Дмитрий Артимович в беседе с телеканалом "360".
Работе мессенджеров это мешать не будет, уточнил он.