Режим Работы Go495.ru
Режим работы:Пн-пт 9:00-17:00 Выходные дни: Сб, Вс
undefined
8 (499) 398 22 92

ЕС лидирует в законах об искусственном интеллекте, в то время как США все еще отстают.

news

Вопросы этики и безопасности при использовании ИИ в США: почему регулирование все еще находится на этапе обсуждения? В то время как в Европе уже приняты законы о регулировании использования ИИ, включая медицину и транспорт, США отстает на этом фоне.

В Европе уже предприняли шаги для регулирования использования ИИ в различных областях, включая медицину и транспорт. Однако, в США такие законы все еще только обсуждаются и не получили широкой поддержки. Это создает проблемы, связанные с этичностью и безопасностью использования ИИ в США, и может существенно замедлить развитие этой области в стране.

Сэм Альтман, генеральный директор OpenAI, заявил перед членами Конгресса о необходимости регулирования индустрии искусственного интеллекта. Альтман отметил, что ИИ может быть опасным и правительство должно вмешаться, чтобы предотвратить возможные негативные последствия. Эта проблема становится все более актуальной в различных странах, так как технологии искусственного интеллекта становятся доступнее и начинают проникать во все сферы жизни, представляя потенциальную угрозу для отраслей.

Европейский союз ведет работу по регулированию использования искусственного интеллекта уже некоторое время, в то время как в США данный процесс только начинается. Однако, первоначальные шаги американских законодателей вызывают сомнения у экспертов в области цифровых прав. Сенаторы могут считать, что лидеры индустрии ИИ будут действовать добросовестно без необходимости вмешательства правительства. Некоторые участники дискуссии высказывали опасения о возможности создания разумной технологии, которая может повернуться против человечества. Важно отметить, что вопрос воздействия уже существующих технологий на общество давно требует внимания, включая усиление наблюдения, дискриминации, ослабление трудовых прав и создание дезинформации. Эксперты предупреждают, что повторение ошибок, допущенных при регулировании платформ социальных сетей, может привести к негативным последствиям для индустрии искусственного интеллекта. Правительства и законодатели должны тщательно взвешивать плюсы и минусы этой технологии и разработать правильные правила ее использования.

Европейский союз лидирует в вопросах регулирования использования искусственного интеллекта, в то время как США пока еще не сделали достаточных шагов в этом направлении. Генеральный директор OpenAI Сэм Альтман призывал американских законодателей регулировать использование ИИ, подчеркивая, что эта технология может быть опасной и требует вмешательства правительства. В то же время, вопрос о том, как искусственный интеллект должен регулироваться правительством, остается открытым и актуальным во всем мире, поскольку ИИ может угрожать целым отраслям искусства и промышленности в случае неправильного использования.

Эксперты предупреждают, что если законодатели и правительственные органы повторят ошибки, допущенные при попытке регулирования платформ социальных сетей, то индустрия искусственного интеллекта также станет укорененной в обществе, что может привести к еще более катастрофическим последствиям. Компании, которые несут ответственность за быстрое развитие систем искусственного интеллекта, являются теми же технологическими компаниями, которые были привлечены к ответственности за нарушения антимонопольного законодательства, нарушения действующего законодательства или информационный ущерб. В свою очередь, это предоставляет им возможность экспериментировать в дикой природе с системами, которые, как мы уже знаем, способны причинить значительный вред обществу, говорит управляющий директор AI Now Institute, Сара Майерс Уэст.

Отсутствие лидерства в регулировании использования искусственного интеллекта в Вашингтоне оставляет возможность саморегулирования в этом секторе. Один из предложенных вариантов регулирования, предложенный Альтманом, включает создание требований к лицензированию и тестированию для разработки и выпуска инструментов ИИ, установление стандартов безопасности и привлечение независимых аудиторов для оценки моделей до их выпуска. Также было предложено создание международного регулирующего органа для введения и координации этих стандартов в глобальном масштабе. Однако, такие предложения, которые сенаторы хором приветствовали на слушаниях, будут представлять не более чем саморегулирование, отмечает Сара Майерс Уэст из AI Now Institute.

Сара Майерс Уэст из AI Now Institute критикует предложение Альтмана, которое позволяет игрокам отмечать определенные флажки и считаться "ответственными", чтобы "двигаться вперед без каких-либо дополнительных уровней проверки или ответственности". Она считает, что это противоречит "применению законов, которые уже есть, и обновлению этих законов для достижения даже базового уровня подотчетности". Сара Майерс Уэст и другие эксперты также сосредоточены на сдерживании "гипотетических будущих" систем, которые могут взять на себя определенные человеческие способности. По ее словам, правила не будут применяться к системам искусственного интеллекта, поскольку они внедряются сегодня. OpenAI не прокомментировала предложение Альтмана на момент публикации.

торые оказались несуществующими выдумками , созданными ChatGPT. Использование инструментов ИИ уже вызвало вред для общества. Алгоритмы, управляющие социальными сетями, направляют дезинформацию широкому кругу людей, а также используются для поддержки систем, увековечивающих дискриминацию, например, в жилищном и ипотечном кредитовании. Использование технологии наблюдения с поддержкой ИИ в некоторых случаях неправильно идентифицирует черных и коричневых людей. ИИ также используется для автоматизации оружия, что может привести к ошибкам. В будущем генеративный ИИ может увеличить эти риски, так как уже наблюдались ответы, содержащие дезинформацию и плагиат, созданные ChatGPT и другими крупными языковыми моделями, такими как Bard от Google. Это может способствовать распространению фактических неточностей и ухудшению качества онлайн-информации. На прошлой неделе было обнаружено, что ChatGPT создал шесть несуществующих выдумок, упомянутых в юридическом обзоре нью-йоркским юристом.

"Склонность больших языковых моделей просто добавлять совершенно неверные вещи — некоторые менее благожелательные люди только что назвали их чушью — это реальная опасность медленного горения», — сказал Дэниел Лойфер, старший политический аналитик организации цифровых прав Access Now."

Поделиться в:

Скопировать ссылку:

copy-icon
Обсудим проект?

Крутые результаты начинаются с заполнения этой формы

Отправляя форму, я даю согласие на обработку персональных данных.

Добро пожаловать на страницу новостей Go495, где вы можете быть в курсе последних событий и интересных новостей от нашей компании. Являясь ведущим поставщиком цифровых решений, мы постоянно внедряем инновации и расширяем наши предложения, чтобы лучше обслуживать наших клиентов и оставаться в авангарде отрасли.

Наша страница новостей — это ваш источник последних обновлений о наших новых услугах, партнерских отношениях и проектах. Мы делимся с читателями нашими историями успеха и последними достижениями, начиная с передовых веб-сайтов и мобильных приложений и заканчивая инновационными кампаниями цифрового маркетинга.

Оставить обратный звонок или позвонить?
На связи 24/7 8 (499) 398 22 92
tel-icon
info@go495.ru
email-icon
Класс

Мы скоро с вами свяжемся

kiss-you

Этот сайт использует файлы cookie. Продолжая просмотр сайта, вы соглашаетесь на использование файлов cookie. Чтобы узнать больше о файлах cookie, которые мы используем, прочтите нашу «Политику обработки файлов cookie»