Как глобальное соперничество США и Китая влияет на безопасность искусственного интеллекта?

На фоне подготовки к двухдневному саммиту по искусственному интеллекту в Париже развернулась показательная дискуссия между бывшим послом Китая в Великобритании Фу Ин и профессором Йошуа Бенджио, известным как «крестный отец ИИ». Их диалог ярко продемонстрировал растущее напряжение между ведущими державами в сфере развития ИИ.
Как глобальное соперничество США и Китая влияет на безопасность искусственного интеллекта?
Изображение носит иллюстративный характер

Фу Ин, ныне работающая в пекинском университете Цинхуа, подчеркнула стремительное развитие китайских технологий ИИ с момента публикации национального плана развития в 2017 году – за пять лет до появления ChatGPT. По её словам, такой быстрый прогресс неизбежно сопряжен с рисками: «Китайцы двигаются быстрее [чем Запад], но это создает множество проблем».

Особое внимание привлек спор об открытом исходном коде. Фу Ин утверждала, что открытая архитектура помогает совместно выявлять и решать проблемы безопасности. Профессор Бенджио возразил, указав на риски использования открытого кода злоумышленниками, хотя признал, что китайский DeepSeek легче анализировать на наличие проблем, чем закрытый ChatGPT.

Саммит в Париже собрал представителей 80 стран, включая руководителей крупнейших технологических компаний – Сэма Альтмана (OpenAI), Брэда Смита (Microsoft) и Сундара Пичаи (Google). Во вторник к обсуждениям присоединятся президент Франции Эммануэль Макрон и премьер-министр Индии Нарендра Моди.

В рамках саммита было объявлено о создании партнерства с бюджетом $400 млн для поддержки проектов ИИ, служащих общественным интересам, особенно в здравоохранении. Как отметила правительственный советник по ИИ доктор Лаура Гилберт: «Как вы собираетесь финансировать NHS без использования ИИ?»

Марк Уорнер, генеральный директор компании Faculty, сравнил текущие изменения с промышленной революцией: «Если промышленная революция автоматизировала физический труд, то ИИ автоматизирует когнитивный труд». По его мнению, его двухлетний ребенок уже не будет работать так, как работают люди сегодня.

Мэтт Клиффорд, автор британского плана действий по ИИ, предупредил, что влияние искусственного интеллекта будет «более радикальным», чем переход от печатных машинок к текстовым процессорам. Этот прогноз подчеркивает важность международного сотрудничества в области регулирования ИИ, несмотря на геополитические разногласия.

Фу Ин особо отметила негативное влияние напряженности между США и Китаем на сотрудничество в области безопасности ИИ: «В то время как наука движется по восходящей траектории, отношения развиваются в неправильном направлении». Это заявление подчеркивает необходимость поиска баланса между национальными интересами и глобальной безопасностью в развитии искусственного интеллекта.


Новое на сайте

19521Банковский троян VENON на Rust атакует Бразилию с помощью девяти техник обхода защиты 19520Бонобо агрессивны не меньше шимпанзе, но всё решают самки 19519Почему 600-килограммовый зонд NASA падает на землю из-за солнечной активности? 19518«Липовый календарь»: как расписание превращает работников в расходный материал 19517Вредоносные Rust-пакеты и ИИ-бот крадут секреты разработчиков через CI/CD-пайплайны 19516Как хакеры за 72 часа превратили npm-пакет в ключ от целого облака AWS 19515Как WebDAV-диск и поддельная капча помогают обойти антивирус? 19514Могут ли простые числа скрываться внутри чёрных дыр? 19513Метеорит пробил крышу дома в Германии — откуда взялся огненный шар над Европой? 19512Уязвимости LeakyLooker в Google Looker Studio открывали доступ к чужим базам данных 19511Почему тысячи серверов оказываются открытой дверью для хакеров, хотя могли бы ею не быть? 19510Как исследователи за четыре минуты заставили ИИ-браузер Perplexity Comet попасться на... 19509Может ли женщина без влагалища и шейки матки зачать ребёнка естественным путём? 19508Зачем учёные из Вены создали QR-код, который невозможно увидеть без электронного... 19507Девять уязвимостей CrackArmor позволяют получить root-доступ через модуль безопасности...
Ссылка