Четверг, 25 апреля, 2024

Вогон сегодня

Избранные новости из Галактики

Вогон сегодня
Криптовалюты

Роботы-убийцы — не роботы, а люди

Роботы-убийцы уже присутствуют на поле боя и оказываются весьма разрушительным оружием. Нам следует беспокоиться, действительно очень волноваться. Поскольку они продемонстрировали свой смертоносный потенциал в войнах в секторе Газа и на Украине, последствия могут быть разрушительными, если обращаться с ними небрежно. 3 апреля израильское издание журнала +972 опубликовало отчет об использовании Израилем искусственного интеллекта для выявления целей в секторе Газа.

Система искусственного интеллекта называется «Лаванда» и, как сообщается, составляет списки убийц подозреваемых членов ХАМАС, в том числе тех, кто работает в нижних чинах. Мы понятия не имеем, насколько точными были эти списки, но наиболее тревожным фактом является то, что их использовали для нападения на боевиков, даже если они находились в своих домах со своими семьями, детьми и множеством мирных жителей вокруг. На графике ниже показано количество погибших и раненых по состоянию на 15 апреля.

Источник: Статистика .

Алгоритмы говорят, на кого ориентироваться

Как видно из большого количества смертей среди гражданского населения и массовых разрушений инфраструктуры после вторжения Израиля в сектор Газа, доклад вызвал серьезную обеспокоенность у гуманитарных организаций, правительственных чиновников и каждого здравомыслящего человека во всем мире и в Соединенных Штатах. Антониу Гутерриш, генеральный секретарь ООН, заявил, что он «глубоко обеспокоен», а Джон Кирби, представитель Белого дома, заявил, что «Соединенные Штаты тщательно изучают отчет».

Гутерриш проявил больше беспокойства о жертвах и сказал:

«Никакая часть решений о жизни и смерти, влияющих на целые семьи, не должна быть передана на холодный расчет алгоритмов».

Источник: Worldpoliticsreview .

Отчет был опубликован после инцидента, в ходе которого Израиль атаковал и убил семерых западных сотрудников гуманитарных организаций, некоторые из которых были бывшими британскими солдатами. Это, конечно, побудило судей и юристов по всей Великобритании прекратить продажу оружия Израилю из-за его военных преступлений и серьезных нарушений международного права.

Другое измерение размышлений о роботах-убийцах

«Аль-Джазира» показала сцены в секторе Газа в ноябре на основе статистики УКГВ. Источник: Аль-Джазира .

Кампания по остановке роботов-убийц выразила обеспокоенность, но заявила, что это не то, против чего они борются с 2012 года, поскольку, по их мнению, это система обработки данных и окончательное решение об открытии огня остается в руках человека, но одно из их заявлений дает еще одно измерение для размышления. Заявление последовало после публикации новости, читаем:

«Отсутствие значительного человеческого контроля и усилий, необходимых для принятия решений об атаке рекомендуемых целей».

Источник: Worldpoliticsreview .

В этом заявлении используется слово «отсутствие значимого контроля со стороны человека», что добавляет еще один уровень сложности уже осужденному искусственному интеллекту и роботам-убийцам, а также дает активистам новую проблему, которую нужно защищать.

Искусственный интеллект обычно изображается как возможно однажды захвативший планету и причинивший катастрофический ущерб , вплоть до вымирания человечества. Но более тревожным фактом является то, что силы, использующие их, будут проявлять меньшую осторожность при выборе целей, это сделает их менее подотчетными, что приведет к принятию неэтичных решений в войнах, как мы уже видели в секторе Газа. Итак, в конце концов, речь идет не о роботах, принимающих решения против людей, а о людях, принимающих роботизированные решения без полного использования своих когнитивных способностей в таких деликатных ситуациях жизни и смерти. Как сообщается со ссылкой на источник,

«Машина сделала это круто».

Источник: +972маг.

Есть и другой аспект: это может подорвать способность программистов эффективно взаимодействовать с системами искусственного интеллекта, что приведет к военным преступлениям.

Оригинальную историю можно посмотреть здесь .