Понедельник, 5 августа, 2024

Вогон сегодня

Избранные новости из Галактики

Вогон сегодня
Криптовалюты

Британский институт безопасности запускает Inspect, инструмент оценки безопасности на базе искусственного интеллекта.

Прогресс Великобритании во внедрении мер этики и безопасности в отношении искусственного интеллекта (ИИ) ускорился с появлением набора инструментов Inspect AI, созданного Институтом безопасности Великобритании. Inspect, предложенный в качестве инструмента, созданного для обеспечения безопасности ИИ, предлагает комплексный алгоритм оценки моделей ИИ , тем самым отмечая ключевую веху на пути к прозрачной и подотчетной разработке ИИ.

Революционный подход к тестированию безопасности ИИ

Основная особенность Inspect заключается в его способности разрешать полномочия сложных алгоритмов искусственного интеллекта. Из-за своей непрозрачности, которая может подразумевать нераскрытие важных аспектов, таких как базовая инфраструктура и данные обучения, эти модели представляют собой серьезную проблему. Inspection решает эту проблему благодаря своей очень гибкой архитектуре, которая позволяет легко интегрировать существующие технологии и методы испытаний.

Он включает в себя три основных модуля: наборы данных, решатели и оценщики. Модули организованы таким образом, чтобы обеспечить систематический процесс тестирования. Наборы данных являются ресурсом для проверки квалификации с использованием выборочных групп; Затем оценщики оценивают результат работы решателей, и оценки компилируются в совокупные показатели. Важно отметить, что структуру Inspect можно улучшить за счет включения внешних пакетов Python, что повысит эффективность и полезность Inspect.

Новаторское сотрудничество и глобальное влияние

Запуск Inspect символизирует объединение сообщества искусственного интеллекта и содействие прозрачности и сотрудничеству по всей планете. Помимо опоры на принципы открытого исходного кода и развития культуры сотрудничества, Институт безопасности искусственного интеллекта Великобритании ставит перед собой задачу внедрить общий подход к тестированию безопасности искусственного интеллекта, преодолевая географические и организационные различия. Ян Хогарт, президент Института безопасности, говорит, что коллективный подход имеет ключевое значение. Inspect должен быть отправной точкой для стандартизированных оценок высокого уровня среди всех заинтересованных сторон, включая отрасли и заинтересованные стороны.

Дебора Радж, специалист по этике и исследователь ИИ в Mozilla, считает, что разработка Inspect является одним из примеров преобразующего эффекта государственных инвестиций в инструменты подотчетности ИИ с открытым исходным кодом. Выпуск Inspect имеет отклик за пределами научных кругов и промышленности, поскольку Клеман Деланг, генеральный директор AI-стартапа Hugging Face, призывает сделать его частью текущих библиотек моделей и создать публичный рейтинг, в котором будут представлены результаты оценки. быть показано.

Трансатлантический сдвиг парадигмы в управлении ИИ

Презентация Inspect направлена ​​на широкое признание необходимости международного управления и подотчетности в области ИИ. США и Великобритания работают вместе, взяв за пример соглашения Саммита по безопасности ИИ в Блетчли-Парке, над совместной разработкой протоколов тестирования передовых моделей ИИ. Для начала США планируют создать Институт безопасности ИИ, создание которого соответствует общей цели выявления и устранения рисков, связанных с ИИ и генеративным ИИ.

Inspect, приложение искусственного интеллекта следующего поколения представляет собой важную веху на пути к искусственному интеллекту, где центральной темой, объединяющей все, является прозрачность, подотчетность и ответственное управление. Обеспокоенность по поводу ответственного ИИ со стороны как стран, так и организаций вдохновляет такие инициативы, как Inspect, которые предусматривают светлое будущее, в котором ИИ будет все более приемлемым для людей благодаря серьезному учету развития доверия, честности и ценностей, ориентированных на человека.