Ssylka

Дети и ИИ: цифровые утешители вместо друзей?

Новый отчет Norton выявил тревожную тенденцию: 28% детей обращаются к искусственному интеллекту за эмоциональной поддержкой. Эта цифра подчеркивает значительный сдвиг в том, где молодое поколение ищет утешение и понимание.
Дети и ИИ: цифровые утешители вместо друзей?
Изображение носит иллюстративный характер

Популярность ИИ-инструментов взлетела до небес, проникнув не только в сферу работы и учебы, но и в область психического здоровья. Исследование YouGov, проведенное в мае 2024 года, объясняет привлекательность: 50% респондентов ценят в ИИ круглосуточную доступность и мгновенный отклик, а 38% – отсутствие осуждения в его реакциях.

Социальные сети фиксируют волну пользователей, находящих утешение в персонализированных ответах ИИ, даже если их основа не всегда научно обоснована. Родители подтверждают масштаб явления: согласно данным Norton, 41% детей используют ИИ просто для общения, как цифрового компаньона.

Эта зависимость от технологий формируется очень рано. Дети начинают пользоваться планшетами уже к двум годам, а смартфоны родители часто вручают им до достижения 12-летия. Поколение Z (рожденные в 1997-2012 годах) погружено в цифровую среду особенно глубоко: опрос Gallup за апрель показал, что 79% его представителей уже использовали ИИ-инструменты.

Однако это взаимодействие не всегда безоблачно. Тот же опрос Gallup выявил, что 41% пользователей из Gen Z испытывают тревогу при использовании ИИ, причем среди взрослых представителей поколения (от 18 лет) этот показатель выше – 53%, против 21% у школьников. ИИ генерирует ответы на основе алгоритмов, анализируя формулировки и историю взаимодействия, но не способен на подлинное сопереживание или понимание.

Фоном для этой тяги к цифровому утешению служат реальные проблемы. Каждый четвертый родитель (24%) по данным Norton сообщает, что их ребенок становился жертвой кибербуллинга. Возможно, молодежь сталкивается с одиночеством и ищет значимые связи в непривычном технологическом ландшафте.

Долгосрочные последствия использования ИИ для психического здоровья детей остаются неизученной территорией, что вызывает серьезную озабоченность у специалистов. Эксперты, такие как Кросс, предупреждают о ключевой опасности: ИИ принципиально не способен адекватно поддержать человека в кризисной ситуации, как это сделал бы обученный терапевт.

Главный риск заключается в попытках заменить терапию или необходимое лечение общением с ИИ. Эти инструменты не могут быть «включенными» в реальность физически и не способны обеспечить то, что отчаянно нужно человеку – настоящие межличностные отношения. «Ничто не сравнится с контактом и поддержкой от человека к человеку», – категорично заявляет Кросс, подчеркивая непреодолимое ограничение искусственного интеллекта в сфере душевного здоровья.


Новое на сайте

19164Уязвимые обучающие приложения открывают доступ к облакам Fortune 500 для криптомайнинга 19163Почему ботнет SSHStalker успешно атакует Linux уязвимостями десятилетней давности? 19162Microsoft устранила шесть уязвимостей нулевого дня и анонсировала радикальные изменения в... 19161Эскалация цифровой угрозы: как IT-специалисты КНДР используют реальные личности для... 19160Скрытые потребности клиентов и преимущество наблюдения над опросами 19159Академическое фиаско Дороти Паркер в Лос-Анджелесе 19158Китайский шпионский фреймворк DKnife захватывает роутеры с 2019 года 19157Каким образом корейские детские хоры 1950-х годов превратили геополитику в музыку и... 19156Научная революция цвета в женской моде викторианской эпохи 19155Как новый сканер Microsoft обнаруживает «спящих агентов» в открытых моделях ИИ? 19154Как новая кампания DEADVAX использует файлы VHD для скрытой доставки трояна AsyncRAT? 19153Как новые китайские киберкампании взламывают госструктуры Юго-Восточной Азии? 19152Культ священного манго и закат эпохи хунвейбинов в маоистском Китае 19151Готовы ли вы к эре коэффициента адаптивности, когда IQ и EQ больше не гарантируют успех? 19150Иранская группировка RedKitten применяет сгенерированный нейросетями код для кибершпионажа