Среда, 3 июля, 2024

Вогон сегодня

Избранные новости из Галактики

Вогон сегодня
Криптовалюты

Сотрудники говорят, что OpenAI и Google DeepMind скрывают риски ИИ 

Несколько нынешних и бывших сотрудников OpenAI и Google DeepMind обвинили свои компании в сокрытии рисков ИИ, которые потенциально могут спровоцировать вымирание человечества. В открытом письме рабочие заявили, что компании, занимающиеся искусственным интеллектом, ставят прибыль на первое место, избегая при этом «эффективного [государственного] надзора».

Читайте также: OpenAI выбирает преемника GPT-4 из-за проблем с безопасностью

Открытое письмо было подписано 11 бывшими сотрудниками OpenAI, двое из Google DeepMind, и одобрено «крестным отцом искусственного интеллекта» Джеффри Хинтоном, ранее работавшим в Google. Он сказал, что мотивы получения прибыли и лазейки в регулировании позволяют компаниям скрывать угрозы, исходящие от передового искусственного интеллекта.

Искусственный интеллект может привести к вымиранию человечества

Согласно письму, такие компании, занимающиеся искусственным интеллектом, как OpenAI и Google DeepMind, создатель Gemini , не делились публично информацией о недостаточных мерах защиты и уровнях риска своих систем, поскольку они не обязаны это делать.

Без надзора со стороны регулирующих органов программы искусственного интеллекта могут нанести серьёзный вред людям. Сотрудники предупредили:

«Эти риски варьируются от дальнейшего углубления существующего неравенства… до потери контроля над автономными системами искусственного интеллекта, что приведет к потенциальному исчезновению человечества».

Как отмечают подписавшие письмо, сами ИИ-компании осознают эти риски. В мае 2023 года руководители OpenAI, Anthropic и Google DeepMind подписали открытое письмо Центра безопасности ИИ. В письме просто говорилось: «Снижение риска вымирания из-за искусственного интеллекта должно быть глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».

Компании, занимающиеся искусственным интеллектом, все чаще подвергаются пристальному вниманию , поскольку ставят новые продукты и прибыль выше безопасности. OpenAI, создатель ChatGPT, отметил обеспокоенность, высказанную в письме, и заявил, что работает над разработкой безопасного ИИ.

«Мы гордимся своим опытом создания наиболее эффективных и безопасных систем искусственного интеллекта и верим в наш научный подход к снижению рисков», — заявила New York Times пресс-секретарь OpenAI Линдси Хелд.

«Мы согласны с тем, что строгие дебаты имеют решающее значение, учитывая важность этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру».

К

Информаторы опасаются возмездия

Бывшие сотрудники OpenAI и Google заявили, что хотели бы взять на себя надзорную роль, поскольку регулирующие органы разрабатывают законы, которые заставят разработчиков ИИ публично раскрывать больше информации о своих программах.

Однако соглашения о конфиденциальности и риск репрессий со стороны работодателей не позволяют работникам высказывать свои опасения публично. Согласно письму:

«Некоторые из нас обоснованно опасаются различных форм возмездия, учитывая историю подобных случаев в отрасли. Мы не первые, кто сталкивается с этими проблемами или говорит о них».

В США информаторы защищены законом, но те, кто раскрывает опасность искусственного интеллекта, не защищены, поскольку технология еще не регулируется.

Читайте также: ChatGPT по-прежнему распространяет ложь, заявляет регулятор данных ЕС

В письме содержится призыв к компаниям, занимающимся искусственным интеллектом, обеспечивать анонимную и поддающуюся проверке обратную связь, поддерживать культуру открытой критики и не принимать ответных мер против информаторов.

Исследователь искусственного интеллекта Лэнс Б. Элиот сказал, что компании применяют к критике подход «кнута и пряника». Сотрудники, которые не высказываются против рисков, вознаграждаются продвижением по службе и повышением заработной платы.

С другой стороны, разоблачители и критики теряют свои опционы на акции и могут быть вытеснены из компании и молча занесены в черный список лидерского сообщества ИИ.


Криптополитический репортаж Джеффри Гого