Сегодня европейцы определили четыре технологии, развитие которых несет особые риски: гиперзвуковые аппараты, автономные роботы, кибербезопасность и биологическое оружие. Для исследования таких угроз уже формируется исследовательское сообщество.
Где ставить защитный забор, пока не очень ясно. По идее, государства должны контролировать разработчиков и производителей. Но как?
Об опасностях развития систем вооружения с искусственным интеллектом рассказывает профессор Вадим Козюлин, эксперт ПИР-Центра, участник «Международной панели по регулированию автономных систем вооружений», участник российско-американского Дартмутского диалога
➡️
http://amp.gs/bRuT