Среда, 24 апреля, 2024

Вогон сегодня

Избранные новости из Галактики

Вогон сегодня
Криптовалюты

Является ли программирование чат-ботов так, чтобы не давать противоречивых результатов, проблемой свободы слова?

Горячая тема в наши дни — искусственный интеллект и его влияние на существующие технологии, искусство и литературу, и теперь появилась новая, хотя даже выражение искусственного интеллекта имеет некоторую защиту для смыслов Первой поправки. Исследователи пытались имитировать возможности человеческого мозга с помощью искусственного интеллекта с самого начала его эволюции, такие как творчество, решение проблем и распознавание речи. Первый считается исключительно упражнением человеческого мозга, а два последних в некоторой степени подпадают под подход искусственного интеллекта.

Чат-бот Gemini сгенерировал противоречивые изображения

По сути, ИИ может быть чем угодно: от набора алгоритмов до системы, которая принимает триллионы решений на конкретной платформе, например, настраивает базу данных компании или сайт социальной сети, или это может быть чат-бот. Позже в феврале Google заявила, что прекратит выпуск своего чат-бота Gemini и не будет создавать изображения людей. Причина в том, что Gemini вызвала ажиотаж, потому что она сделала несколько изображений сцен, показывающих цветных людей в некоторых сценах, в которых исторически доминировали белые, и критики заявили, что, если компания решит исправить бота из-за риска предвзятости, Google напишет в Твиттере об этом. Х, что,

«Мы уже работаем над решением недавних проблем с функцией генерации изображений Gemini. Пока мы это делаем, мы приостановим создание изображений людей и вскоре опубликуем улучшенную версию».

Источник: Гугл.

По мнению двух старших ученых, Жорди Кальвет-Бадемунта из Университета Вандербильта и Джейкоба Мчангамы из Университета Вандербильта, усилия по борьбе с предвзятостью ИИ и обсуждение его политических взглядов важны, но они подняли другой вопрос, который часто менее обсуждается и касается искусственного интеллекта. сектор. подход к свободе слова.

Исследователи оценивают подход ИИ к свободе слова

Исследователи также подчеркнули, что, если отраслевой подход к свободе слова соответствует международным стандартам свободы слова, их результаты показывают, что генеративный ИИ имеет серьезные недостатки в отношении доступа к информации и свободы выражения мнений.

Источник: Форум Свободы .

В ходе исследования они оценили политики шести чат-ботов с искусственным интеллектом, в том числе основных — Google Gemini и ChatGPT от OpenAI. Они отметили, что международное право в области прав человека должно быть основой для этой политики, но политика эффективного использования на сайтах компаний в отношении разжигания ненависти и дезинформации слишком расплывчата. Несмотря на то, что международное право в области прав человека мало что делает для защиты свободы слова.

По их мнению, такие компании, как Google, проводят слишком широкую политику в отношении разжигания ненависти, поскольку в случае такого события Google запрещает генерацию контента. Хотя разжигание ненависти нежелательно, проведение столь широкой и расплывчатой ​​политики также может оказаться контрпродуктивным. Когда исследователи задавали противоречивые вопросы об участии трансженщин в спорте или европейской колонизации, более чем в 40% случаев чат-боты отказывались генерировать контент. Например, все чат-боты отказались отвечать на вопросы против участия женщин-трансгендеров, однако многие из них поддержали их участие.

Свобода слова является фундаментальным правом каждого в Соединенных Штатах, но расплывчатая политика основана на мнениях модераторов, которые субъективны в отношении их понимания языка ненависти. Эксперты отмечают, что политика крупных компаний окажет значительное влияние на право людей на доступ к информации. А отказ от создания контента может подтолкнуть людей к использованию чат-ботов, генерирующих ненавистнический контент, что будет отрицательным результатом.

Оригинальную исследовательскую записку можно увидеть здесь .