Суббота, 27 апреля, 2024

Вогон сегодня

Избранные новости из Галактики

Вогон сегодня
Экономические сценарии

ИИ необъясним, непредсказуем и неконтролируем. Новая книга предупреждает о развитии искусственного интеллекта

ИИ необъясним, непредсказуем и неконтролируем.

Доктор Роман В. Ямпольский является штатным доцентом Университета Луисвилля и опубликовал результаты своих исследований в книге под названием « ИИ необъяснимый, непредсказуемый, неконтролируемый » «Искусственный интеллект, необъяснимый, непредсказуемый, неконтролируемый ». В этой книге эксперт, проведя углубленный анализ научной литературы по ИИ, пришел к выводу, что нет никаких доказательств в поддержку идеи о том, что ИИ можно безопасно контролировать.

Даже мер, которые можно было бы принять для предотвращения аварий и повышения безопасности, будет недостаточно.

Его работа по безопасности ИИ частично финансировалась Илоном Маском и Институтом будущего жизни (FLI), основанным профессором Массачусетского технологического института Максом Тегмарком и соучредителем Skype Яаном Таллином. FLI — это тот же институт, который призвал ввести шестимесячный мораторий на разработку инструментов искусственного интеллекта, более мощных, чем GPT-4 от OpenAI.

Открытое письмо института подписали более 33 тысяч инженеров, в том числе Маск, сооснователь Apple Стив Возняк, «крестный отец искусственного интеллекта» Йошуа Бенджио и другие эксперты, сообщает Interest Engineering.
Обеспокоенность по поводу управления и регулирования рисков ИИ

Поскольку в прошлом году на рынке появились новые инструменты искусственного интеллекта, д-р Ямпольский предполагает, что передовые системы искусственного интеллекта всегда будут представлять риски, несмотря на их потенциальные преимущества, из-за присущей им непредсказуемости и автономности.

«Почему многие исследователи считают, что проблема управления ИИ разрешима? Насколько нам известно, никаких доказательств этого, никаких демонстраций этому нет. Прежде чем приступить к поиску управляемого ИИ, важно продемонстрировать, что проблема разрешима», — заявил д-р Ямпольский в пресс-релизе.

«Это, в сочетании со статистикой, показывающей, что развитие сверхинтеллекта ИИ является почти гарантированным явлением, демонстрирует, что мы должны поддерживать значительные усилия по обеспечению безопасности ИИ», — добавил он.

Развитие сверхинтеллекта неизбежно

Поскольку ИИ, в том числе сверхинтеллект, способен обучаться, адаптироваться и действовать полуавтономно, обеспечить его безопасность становится все сложнее, особенно по мере увеличения его возможностей.

Можно сказать, что сверхразумный ИИ будет иметь собственный разум. Так как же мы можем это контролировать? Действуют ли в современном мире законы робототехники Айзека Азимова, устанавливающие этическое поведение между людьми и роботами?

Доктор Ямпольский, основной сферой интересов которого является безопасность ИИ, объяснил: «Мы столкнулись с почти гарантированным событием, которое может привести к экзистенциальной катастрофе».

«Неудивительно, что многие считают это самой важной проблемой, с которой когда-либо сталкивалось человечество. Результатом может стать процветание или вымирание, и судьба Вселенной будет висеть на волоске», — добавил он.

Серьезной проблемой являются бесконечные потенциальные решения и неудачи сверхразумных существ, которые затрудняют прогнозирование и смягчение последствий.

Кроме того, отсутствие объяснений решений ИИ вызывает обеспокоенность, поскольку понимание этих решений имеет решающее значение для уменьшения количества инцидентов и обеспечения беспристрастных результатов, особенно в таких важных секторах, как здравоохранение и финансы, куда проник ИИ.

По мере того как ИИ увеличивает автономность, контроль со стороны человека снижается, что приводит к проблемам безопасности. Доктор Ямпольский предлагает баланс между возможностями и контролем, признавая, что сверхинтеллект по своей сути может быть неконтролируемым. Однако уровень интеллекта придется ограничить, чтобы обеспечить некоторый уровень контроля.

Он также обсуждает важность согласования ИИ с человеческими ценностями, как это сделал Азимов со своими знаменитыми тремя законами робототехники, предлагая способы минимизировать риски, например, сделать ИИ модифицируемым, прозрачным и классифицируемым как контролируемый или неконтролируемый.

Несмотря на эти проблемы, д-р Ямпольский призывает продолжать исследования и инвестиции в безопасность ИИ, отмечая, что, хотя достижение 100% безопасного ИИ может быть трудным, нужно все равно стремиться к достижению хорошего уровня безопасности.


Телеграмма
Благодаря нашему Telegram-каналу вы можете быть в курсе публикации новых статей «Экономические сценарии».

⇒ Зарегистрируйтесь сейчас


Умы

Статья ИИ необъясним, непредсказуем и неуправляем. Новая книга, предупреждающая о разработках в области искусственного интеллекта, исходит от Scenari Economici .


Это автоматический перевод публикации, опубликованной в журнале Scenari Economici по адресу https://scenarieconomici.it/la-ai-e-inspiegabile-imprevedibile-e-incontrollabile-un-nuovo-libro-mette-in-allarme-sugli-sviluppi-dellintelligenza-artificiale/ в Tue, 13 Feb 2024 09:00:38 +0000.