- Регистрация
- 17 Окт 2015
- Сообщения
- 11.615
- Репутация
- 4.228
- Реакции
- 15.369
Ученые хотят контролировать ИИ с помощью ядерных выключателей
19 февраля, 2024Исследование предлагает способы регулирования аппаратного обеспечения для предотвращения катастрофы.
Ученые Университета Кембриджа и компания OpenAI - это компания, которая занимается исследованиями и разработкой в области искусственного интеллекта. Она была основана в 2015 году и создана с целью сделать искусственный интеллект более доступным и безопасным для людей. Компания разрабатывает и использует нейронные сети и другие методы искусственного интеллекта для решения различных задач, включая анализ данных, генерацию текста, голоса, изображений и т.д.
OpenAI предлагают интегрировать в аппаратное обеспечение, на котором работает ИИ, удаленные выключатели и блокировки, аналогичные тем, что используются для предотвращения несанкционированного запуска ядерного оружия.
Исследование подчеркивает, что регулирование аппаратного обеспечения может стать эффективным инструментом контроля. Учитывая, что обучение самых мощных моделей ИИ требует значительной физической инфраструктуры и времени, авторы утверждают, что существование и производительность таких ресурсов сложно скрыть. Кроме того, производство передовых микросхем для обучения моделей сосредоточено в руках нескольких компаний, таких как NVIDIA- это компания, которая разрабатывает и производит графические процессоры, искусственный интеллект и автономные системы. Она также предоставляет свои решения для исследований в области глубокого обучения deep learning и искусственного интеллекта.
Nvidia, AMD Advanced Micro Devices, Inc.- это американская компания, которая производит и поставляет различные типы электронной компонентов и устройств, в том числе процессоры, графические процессоры, микросхемы памяти и другие компоненты. Они являются одной из крупнейших компаний в мире, которая занимается разработкой и производством процессоров для персональных компьютеров и серверов, конкурируя с Intel. Они так же вложились в области искусственного интеллекта, интегрируя его в свои процессоры и ускорители для облегчения и ускорения машинного обучения.
AMD и Intel – американская корпорация, которая занимается производством широкого спектра электронных устройств и компьютерных компонентов, в частности микропроцессоры и наборы системной логики. Почти 100 % акций компании находится в свободном обращении на фондовых биржах.
Корпорация Intel является одним из крупнейших в мире производителей микропроцессоров, который занимает 75% рынка. Среди основных клиентов компании выделяют производителей персональных компьютеров Dell и Hewlett-Packard. Помимо микропроцессоров, Intel также занимается выпуском полупроводниковых компонентов для промышленного и сетевого оборудования.
Intel, что дает возможность ограничивать продажу товаров определенным лицам или странам.
Авторы предлагают несколько мер по регулированию аппаратного обеспечения для ИИ, включая улучшение видимости и ограничение продажи ускорителей ИИ. Например, в США существует исполнительный акт, направленный на идентификацию компаний, разрабатывающих крупные модели ИИ двойного назначения, а также поставщиков инфраструктуры, способных их обучать. Кроме того, Министерство торговли США предложило регулирование, которое потребует от американских облачных провайдеров внедрить более строгие политики Know Your Customer (KYC) для предотвращения обхода ограничений на экспорт.
Одним из радикальных предложений исследования является внедрение в процессоры выключателей, которые могут предотвратить использование микросхем в злонамеренных целях. Такие выключатели могут позволить регуляторам отслеживать законность использования ИИ-чипов и дистанционно отключать их в случае нарушения правил. Кроме того, предлагается создать глобальный реестр продаж ИИ-чипов, который будет отслеживать их на протяжении всего жизненного цикла, даже после того, как процессоры покинули страну происхождения.
Авторы также рассматривают возможность использования механизмов, аналогичных тем, что применяются для контроля над ядерным оружием, требуя многократного подтверждения для запуска потенциально рискованных задач обучения ИИ в масштабах. Однако они предостерегают, что такие инструменты могут помешать разработке полезных ИИ, поскольку последствия использования ИИ не всегда столь однозначны, как в случае с ядерным оружием.
Несмотря на потенциальные риски, исследование также выделяет возможность перераспределения ресурсов ИИ в интересах общества, предлагая сделать вычислительные мощности ИИ более доступными для групп, маловероятно использующих их во зло. Ученые подчеркивают, что регулирование аппаратного обеспечения ИИ может стать дополнением к другим мерам регулирования в этой области, подчеркивая его более легкую контролируемость по сравнению с другими аспектами разработки ИИ.