Опрос, проведенный изданием Live Science 29 августа среди 382 читателей, выявил глубокое недоверие к искусственному интеллекту. 55% респондентов заявили, что не верят в способность ИИ действовать безопасно и справедливо. Лишь 13% выразили уверенность в технологии и ее потенциале улучшить жизнь. Оставшиеся 32% не смогли дать однозначный ответ, подчеркнув необходимость введения более строгих мер регулирования и контроля, прежде чем формировать окончательное мнение.

Скептицизм пользователей подкрепляется не только опасениями, но и философским взглядом на технологию. Один из участников опроса, пользователь под ником Huhnverloren, сформулировал это отношение в виде метафоры: «Я доверяю ИИ так же, как моряк доверяет морю. Он может унести тебя далеко, а может и утопить». Этот образ отражает общее восприятие ИИ как мощного, но непредсказуемого инструмента, способного принести как огромную пользу, так и неисчислимый вред.
В основе недоверия лежит фундаментальное сомнение в том, что нынешние системы можно считать «разумными». Пользователь Jose p.koshy утверждает, что ИИ является продвинутой формой автоматизации, а не интеллектом. «ИИ — это всего лишь автоматизация, знания, накопленные человечеством и хранящиеся в компьютерах, автоматически извлекаются по нашему запросу. Я не вижу в ИИ никакого интеллекта», — комментирует он.
Исходя из этой логики, доверие к технологии становится условным. Jose p.koshy уточняет: «Мы можем доверять ему до тех пор, пока наш запрос к ИИ однозначен и касается только данных. Мы не можем доверять процесс принятия решений искусственному интеллекту». Эта позиция разделяется многими, кто видит в ИИ лишь инструмент для обработки информации, а не автономного субъекта.
Технические ограничения современных больших языковых моделей (LLM) также подпитывают скептицизм. Пользователь Varian указывает на их неспособность оперировать понятиями времени. «У LLM нет концепции прошлого, настоящего или будущего», — отмечает он. По его словам, процесс работы модели ограничен обработкой запроса и может быть «насильно накормлен» предыдущими данными лишь до тех пор, пока не исчерпается доступная оперативная память.
Критика направлена и на саму идею достижения полноценного искусственного интеллекта. Пользователь BeneathTheClay категорично заявляет, что искусственный общий интеллект (AGI) — это миф. «Искусственный общий интеллект — это вымысел и всегда им будет, и ничто из того, что говорит Сэм Альтман [генеральный директор OpenAI] или любой из апологетов LLM, никогда этого не изменит», — пишет он.
Опасения пользователей подтверждаются и более широкими исследованиями. Научные работы указывают на существование как минимум 32 различных сценариев, по которым ИИ может выйти из-под контроля — от «галлюцинаций» и генерации ложных ответов до полного расхождения с целями человечества. Эти данные, наряду с тем фактом, что ИИ не способен решать некоторые простые для человека головоломки, усиливают призывы к приостановке его развития до появления надежных механизмов контроля.
В конечном счете, дискуссия сводится к вопросу ответственности за внедрение столь мощной технологии. Как заключил пользователь Huhnverloren: «У нас есть шанс, возможно, всего один, чтобы все сделать правильно. Так как же мы хотим получить отражение его разума?»

Изображение носит иллюстративный характер
Скептицизм пользователей подкрепляется не только опасениями, но и философским взглядом на технологию. Один из участников опроса, пользователь под ником Huhnverloren, сформулировал это отношение в виде метафоры: «Я доверяю ИИ так же, как моряк доверяет морю. Он может унести тебя далеко, а может и утопить». Этот образ отражает общее восприятие ИИ как мощного, но непредсказуемого инструмента, способного принести как огромную пользу, так и неисчислимый вред.
В основе недоверия лежит фундаментальное сомнение в том, что нынешние системы можно считать «разумными». Пользователь Jose p.koshy утверждает, что ИИ является продвинутой формой автоматизации, а не интеллектом. «ИИ — это всего лишь автоматизация, знания, накопленные человечеством и хранящиеся в компьютерах, автоматически извлекаются по нашему запросу. Я не вижу в ИИ никакого интеллекта», — комментирует он.
Исходя из этой логики, доверие к технологии становится условным. Jose p.koshy уточняет: «Мы можем доверять ему до тех пор, пока наш запрос к ИИ однозначен и касается только данных. Мы не можем доверять процесс принятия решений искусственному интеллекту». Эта позиция разделяется многими, кто видит в ИИ лишь инструмент для обработки информации, а не автономного субъекта.
Технические ограничения современных больших языковых моделей (LLM) также подпитывают скептицизм. Пользователь Varian указывает на их неспособность оперировать понятиями времени. «У LLM нет концепции прошлого, настоящего или будущего», — отмечает он. По его словам, процесс работы модели ограничен обработкой запроса и может быть «насильно накормлен» предыдущими данными лишь до тех пор, пока не исчерпается доступная оперативная память.
Критика направлена и на саму идею достижения полноценного искусственного интеллекта. Пользователь BeneathTheClay категорично заявляет, что искусственный общий интеллект (AGI) — это миф. «Искусственный общий интеллект — это вымысел и всегда им будет, и ничто из того, что говорит Сэм Альтман [генеральный директор OpenAI] или любой из апологетов LLM, никогда этого не изменит», — пишет он.
Опасения пользователей подтверждаются и более широкими исследованиями. Научные работы указывают на существование как минимум 32 различных сценариев, по которым ИИ может выйти из-под контроля — от «галлюцинаций» и генерации ложных ответов до полного расхождения с целями человечества. Эти данные, наряду с тем фактом, что ИИ не способен решать некоторые простые для человека головоломки, усиливают призывы к приостановке его развития до появления надежных механизмов контроля.
В конечном счете, дискуссия сводится к вопросу ответственности за внедрение столь мощной технологии. Как заключил пользователь Huhnverloren: «У нас есть шанс, возможно, всего один, чтобы все сделать правильно. Так как же мы хотим получить отражение его разума?»