Крупные технологические компании часто говорят о важности прозрачности в сфере искусственного интеллекта, но реальность далека от заявлений. Они не раскрывают, на каких данных обучаются их модели, не говорят об использовании авторских материалов и потенциальных предвзятостях, что делает невозможной объективную оценку безопасности и надежности этих систем.

Необходимо требовать от компаний раскрытия информации о данных, используемых для обучения ИИ. Это позволит выявлять предвзятости, понимать происхождение контента и оценивать, насколько модели действительно «думают», а не просто повторяют заученное. Ввод «питательных этикеток» для данных стал бы хорошим шагом на пути к открытости.
Также важна прозрачность алгоритмов. Когда беспилотный автомобиль попадает в аварию или заявка на кредит отклонена, нужно иметь возможность узнать причины. Сейчас, из-за «черных ящиков» алгоритмов, сделать это невозможно. Требуется законодательное регулирование, обязывающее раскрывать алгоритмы и делать их понятными.
Кроме того, необходимо маркировать контент, созданный искусственным интеллектом, чтобы люди могли отличать реальную информацию от сгенерированной. Это крайне важно в условиях растущего количества фейковых новостей и мошенничества. Наконец, компании обязаны отчитываться о воздействии на окружающую среду и условиях труда работников, занятых в сфере ИИ.

Изображение носит иллюстративный характер
Необходимо требовать от компаний раскрытия информации о данных, используемых для обучения ИИ. Это позволит выявлять предвзятости, понимать происхождение контента и оценивать, насколько модели действительно «думают», а не просто повторяют заученное. Ввод «питательных этикеток» для данных стал бы хорошим шагом на пути к открытости.
Также важна прозрачность алгоритмов. Когда беспилотный автомобиль попадает в аварию или заявка на кредит отклонена, нужно иметь возможность узнать причины. Сейчас, из-за «черных ящиков» алгоритмов, сделать это невозможно. Требуется законодательное регулирование, обязывающее раскрывать алгоритмы и делать их понятными.
Кроме того, необходимо маркировать контент, созданный искусственным интеллектом, чтобы люди могли отличать реальную информацию от сгенерированной. Это крайне важно в условиях растущего количества фейковых новостей и мошенничества. Наконец, компании обязаны отчитываться о воздействии на окружающую среду и условиях труда работников, занятых в сфере ИИ.