15 мая 2026, 23:00: Лавров предупредил Армению о риске потери привилегий в ЕАЭС из-за курса в ЕС 15 мая 2026, 22:00: Трамп заявил о крупных договоренностях США и Китая 15 мая 2026, 21:00: Из украинского плена домой вернулись 205 российских бойцов 15 мая 2026, 20:15: С какой записью в трудовой книжке можно получить надбавку к пенсии 15 мая 2026, 20:00: При атаке украинских БПЛА на Рязань погибли четверо, в том числе ребенок 15 мая 2026, 19:45: Мошенников, вгонявших участников СВО в долговую кабалу, будут судить во Владивостоке 15 мая 2026, 19:15: Какая ошибка в договоре дарения лишает имущества, предупредил юрист 15 мая 2026, 18:45: 60 тысяч рублей заплатит администрация Владивостоке жертве декабрьского снегопада 15 мая 2026, 18:15: Кого после прописки уже нельзя будет выселить из квартиры 15 мая 2026, 18:05: Три человека пострадали в ДТП с "Уралом" на низководном мосту в Приморье

Россия предупреждает: мир может разрушить не Третья Мировая, а «нравственный неандерталец»

28 июня 2024, 14:20

Глава Конституционного Суда Валерий Зорькин рассказал об опасностях искусственного интеллекта, сообщает ИА DEITA.RU.

Глава КС Зорькин написал для «РГ» статью о рисках бесконтрольного развития ИИ. Потенциально ИИ опаснее, чем ядерное орудие. Его развитие ничем не ограничено, а в процессе совершенствования он может запросто пронестись мимо человека, не заметив его.

Зорькин вспоминает слова Стивена Хокинга о том, что это величайшее достижение может стать для людей последним. Велики риски деградации разума человека, социальной аутизации, не говоря уже об экономических и социальных последствиях.

Однако наиболее опасным Зорькин считает неведение масс о моральных принципах ИИ. Именно они в итоге могут перечеркнуть все достижения технологического развития.

«Да и насколько можно быть уверенными в том, что представители биологического вида, устроившего только в последние сто лет две мировые войны, геноциды, множество ужасающих по своей жестокости террористических актов и т.д., надежно запрограммировали машину на верность высшим ценностям?» - пишет глава КС.

Есть вероятность, что управление самым страшным оружием могут доверить ИИ. Якобы, это надежно - электронные схемы функционируют намного эффективнее биохимических, они не устают и гораздо слабее изнашиваются. Однако о чем «думает» ИИ, и каковы его ценности? Вопрос открытый.

«Не станет ли еще большей угрозой человечеству оказавшийся за ракетным пультом хорошо образованный и знающий дело "нравственный неандерталец»?» - задает вопрос Зорькин.

Автор: Василий Кучин