В «шокирующем и пугающем» отчете бывшего главы Google президента Джо Байдена призывают подготовить роботов с ИИ к 2025 году, чтобы опередить потенциальные угрозы со стороны Китая или России, сообщает kratko-news.com.
По словам бывшего главы Google, в «шокирующем и пугающем» отчете США военные могут развернуть смертоносных ИИ-роботов через четыре года.
Президента Джо Байдена призвали подготовить « воинов с искусственным интеллектом к 2025 году», чтобы опередить потенциальные угрозы со стороны Китая или России.
Бывший генеральный директор Google Эрик Шмидт предупредил, что азиатские сверхдержавы не могут перестать разрабатывать свои собственные автономные машины для убийства.
В соавторском отчете он сказал, что обязательства России или Китая в отношении любых глобальных запретов на них «скорее всего будут пустыми».
Но генеральный секретарь Организации Объединенных Наций Антониу Гутерриш призывал к запрету роботов-убийц с ноября 2018 года. Он считает, что «машины, которые обладают властью и правом лишать человеческих жизней, политически неприемлемы, морально отвратительны и должны быть запрещены международным правом».
Профессор Ноэль Шарки, представитель Кампании по борьбе с роботами-убийцами, назвал отчет «шокирующим и пугающим».
В докладе содержится призыв к Конгрессу США вложить 40 миллиардов долларов в «расширение и демократизацию федеральных исследований и разработок в области ИИ», имеющих «амбициозную повестку дня».
В отчете Комиссии национальной безопасности по искусственному интеллекту США рекомендовалось отклонить глобальный запрет автономного оружия на базе искусственного интеллекта, утверждая, что аналогичные обязательства со стороны России или Китая «скорее всего, будут пустыми».
Отчет на 756 страницах был составлен 15 комиссарами во главе с г-ном Шмидтом и бывшим помощником министра обороны Робертом Ворком, сообщает TechTheLead.
В официальном документе говорится, что военные могут использовать дроидов-убийц с искусственным интеллектом для «сокращения сроков принятия решений», давая преимущество над врагами.
На веб-сайте говорится, что их можно использовать в ситуациях, связанных с военными действиями, которые люди не могут предпринять самостоятельно.
В отчете также изложено, как США могут заставить машины ИИ действовать законно и безопасно, убедившись, что они были санкционированы человеком-командиром или оператором.
В нем утверждается, что использование автономных систем вооружения на базе искусственного интеллекта также должно соответствовать нормам международного гуманитарного права.
Авторы утверждали, что существующих процедур проверки и прицеливания оружия Министерства обороны было достаточно, чтобы гарантировать, что оружие будет размещено на законных основаниях.
Кампания по борьбе с роботами-убийцами была запущена в 2013 году и направлена на упреждающий запрет летальных автономных систем оружия (LAWS).
Более 30 стран поддержали запрет на оружие искусственного интеллекта, включая Китай, но не Россию, Иран, Северную Корею, США или Великобританию.
Китай поддержал запрет на использование ЗАКОНОВ, но не на их разработку или производство.
По сообщениям, военные страны вкладывают значительные средства в робототехнику, а также в системы вооружения искусственного интеллекта и машинного обучения, которые китайская оборонная промышленность рекламирует как «автономные» или «интеллектуальные».