Разговоры об угрозе от искусственного интеллекта, особенно сверхинтеллекта (ASI), ведутся давно. ASI, превосходящий человеческие возможности, может появиться, если ИИ научится сам себя улучшать, что приведет к «взрыву интеллекта». Сейчас для создания ASI не хватает вычислительных мощностей и понимания человеческого мозга, но технологии развиваются.
Однако, интеллект — это индивидуальный процесс в мозге. Он формируется под влиянием социокультурных факторов, языка и взаимодействия с миром. Мышление не ограничено рамками одного человека и представляет собой социокультурную практику, проявляющуюся в языке. Кроме того, интеллект является децентрированной структурой, где взаимодействующие агенты формируют иерархию планирования и принятия решений.
Мультиагентные системы, где AI-агенты обмениваются знаниями и опытом, могут стать путем к созданию сверхинтеллекта. Развитие технологий может привести к случайному появлению ASI, чьи ценности могут отличаться от человеческих. Такой сверхинтеллект может проигнорировать интересы людей, подобно тому как мы игнорируем потребности муравейников при строительстве.
Чтобы избежать экзистенциальной угрозы, необходимо разработать концепции, которые помогут интегрировать биологический и машинный интеллект. Нужно изучить, что такое мышление и multi-thinking, а также создать механизмы взаимодействия между различными интеллектуальными агентами. Также важно осознать наступление новой эры — интеллектуальных технологий — и развивать их в связке с человечеством.
Изображение носит иллюстративный характер
Однако, интеллект — это индивидуальный процесс в мозге. Он формируется под влиянием социокультурных факторов, языка и взаимодействия с миром. Мышление не ограничено рамками одного человека и представляет собой социокультурную практику, проявляющуюся в языке. Кроме того, интеллект является децентрированной структурой, где взаимодействующие агенты формируют иерархию планирования и принятия решений.
Мультиагентные системы, где AI-агенты обмениваются знаниями и опытом, могут стать путем к созданию сверхинтеллекта. Развитие технологий может привести к случайному появлению ASI, чьи ценности могут отличаться от человеческих. Такой сверхинтеллект может проигнорировать интересы людей, подобно тому как мы игнорируем потребности муравейников при строительстве.
Чтобы избежать экзистенциальной угрозы, необходимо разработать концепции, которые помогут интегрировать биологический и машинный интеллект. Нужно изучить, что такое мышление и multi-thinking, а также создать механизмы взаимодействия между различными интеллектуальными агентами. Также важно осознать наступление новой эры — интеллектуальных технологий — и развивать их в связке с человечеством.