Как борьба за контроль над OpenAI может повлиять на будущее искусственного интеллекта?

Группа бывших сотрудников OpenAI обратилась к генеральным прокурорам Калифорнии и Делавэра с просьбой заблокировать преобразование компании из некоммерческой в коммерческую структуру. Это обращение, подписанное десятью экс-работниками и поддержанное тремя лауреатами Нобелевской премии, поднимает серьезные вопросы о будущем развития искусственного интеллекта и потенциальных рисках создания искусственного общего интеллекта (AGI).
Как борьба за контроль над OpenAI может повлиять на будущее искусственного интеллекта?
Изображение носит иллюстративный характер

Петиция была направлена генеральному прокурору Калифорнии Робу Бонта и генеральному прокурору Делавэра Кэти Дженнингс. Среди подписавших обращение — Пейдж Хедли, бывший советник по политике и этике в OpenAI (2017-2018), Аниш Тондвалкар, работавший в технической команде до 2023 года, и Нисан Стиеннон, инженер ИИ в OpenAI с 2018 по 2020 год. Поддержку петиции выразили лауреаты Нобелевской премии Оливер Харт и Джозеф Стиглиц (экономика), Джеффри Хинтон (физика, 2023), а также известный пионер ИИ и компьютерный ученый Стюарт Рассел.

OpenAI была основана как некоммерческая исследовательская лаборатория с миссией безопасного развития искусственного общего интеллекта на благо человечества. Сегодня рыночная стоимость компании оценивается в 300 миллиардов долларов, а ее флагманский продукт ChatGPT насчитывает 400 миллионов еженедельных пользователей. Компания уже имеет коммерческое подразделение, зарегистрирована в Делавэре и базируется в Сан-Франциско.

Бывшие сотрудники выражают серьезную обеспокоенность тем, что в погоне за коммерческим успехом OpenAI может пренебрегать мерами безопасности при разработке AGI. Пейдж Хедли утверждает, что компания уже сокращает углы в тестировании безопасности, чтобы конкурировать на рынке. Аниш Тондвалкар особо отмечает риск исчезновения «положения о остановке и помощи» из устава организации, которое имеет критическое значение для безопасного развития ИИ.

Особенно тревожно звучит предупреждение Нисана Стиеннона о том, что OpenAI может «создать технологию, которая может нас всех убить». Эти опасения не беспочвенны, учитывая конфликты вокруг целей компании, которые привели к уходу сооснователя Илона Маска в 2018 году и краткосрочному увольнению генерального директора Сэма Альтмана в 2023 году.

Илон Маск, который сейчас руководит своей собственной компанией xAI, недавно подал иск против OpenAI, обвиняя ее в предательстве основополагающих принципов. Генеральный прокурор Делавэра Кэти Дженнингс заявила, что «рассмотрит любую такую сделку», а генеральный прокурор Калифорнии Роб Бонта запросил информацию, хотя и не подтвердил начало расследования.

OpenAI, со своей стороны, утверждает, что любые структурные изменения будут направлены на то, чтобы «более широкая общественность могла получить пользу от ИИ». Компания заявляет, что коммерческая структура будет общественно-полезной корпорацией, сохраняющей некоммерческое подразделение.

Это второе обращение к государственным чиновникам за месяц. Ранее с аналогичной петицией выступили лидеры профсоюзов и некоммерческие организации. Растущее давление на OpenAI отражает более широкую общественную обеспокоенность относительно развития мощных технологий ИИ и необходимости сохранения прозрачности и подотчетности в этой сфере.

Конфликт вокруг OpenAI поднимает фундаментальные вопросы о том, как должны управляться и регулироваться организации, разрабатывающие потенциально трансформативные технологии. Должны ли они руководствоваться прежде всего общественным благом или коммерческими интересами? Как обеспечить безопасность при разработке ИИ, который может превзойти человеческие возможности? Ответы на эти вопросы могут определить не только будущее OpenAI, но и траекторию развития искусственного интеллекта в целом.


Новое на сайте

19521Банковский троян VENON на Rust атакует Бразилию с помощью девяти техник обхода защиты 19520Бонобо агрессивны не меньше шимпанзе, но всё решают самки 19519Почему 600-килограммовый зонд NASA падает на Землю из-за солнечной активности? 19518«Липовый календарь»: как расписание превращает работников в расходный материал 19517Вредоносные Rust-пакеты и ИИ-бот крадут секреты разработчиков через CI/CD-пайплайны 19516Как хакеры за 72 часа превратили npm-пакет в ключ от целого облака AWS 19515Как WebDAV-диск и поддельная капча помогают обойти антивирус? 19514Могут ли простые числа скрываться внутри чёрных дыр? 19513Метеорит пробил крышу дома в Германии — откуда взялся огненный шар над Европой? 19512Уязвимости LeakyLooker в Google Looker Studio открывали доступ к чужим базам данных 19511Почему тысячи серверов оказываются открытой дверью для хакеров, хотя могли бы ею не быть? 19510Как исследователи за четыре минуты заставили ИИ-браузер Perplexity Comet попасться на... 19509Может ли женщина без влагалища и шейки матки зачать ребёнка естественным путём? 19508Зачем учёные из Вены создали QR-код, который невозможно увидеть без электронного... 19507Девять уязвимостей CrackArmor позволяют получить root-доступ через модуль безопасности...
Ссылка