Китай ужесточит правила обучения ИИ-моделей
Китай представил проект правил работы для компаний, предоставляющих услуги генеративного ИИ. Они включают ограничения на источники данных, используемые для обучения моделей, пишет Cointelegraph.
Документ разработан Национальным комитетом по стандартизации информационной безопасности. В него входят представители Администрации киберпространства Китая (CAC), Министерства промышленности и информационных технологий, а также правоохранительных органов.
Комитет рекомендует провести оценку безопасности контента, используемого для обучения общедоступных моделей генеративного ИИ. Данные, превышающие «5% в виде незаконной и наносящей ущерб информации», занесут в черный список.
В эту категорию входят материалы, пропагандирующие терроризм, насилие, подрыв социалистической системы, формирование вреда репутации страны и действия, ослабляющие национальную сплоченность и стабильность общества.
Проект требует, чтобы организации получали явное согласие от физических лиц, чьи личные данные, включая биометрическую информацию, используются для обучения.
Руководящие принципы содержат исчерпывающие инструкции по предотвращению нарушений, связанных с интеллектуальной собственностью.
Разработка правил последовала спустя месяц после того, как регуляторы разрешили техгигантам вроде Baidu представить широкой публике своих чат-ботов.
В апреле CAC уведомило компании о необходимости предоставлять оценки безопасности, прежде чем предлагать продукты на базе ИИ.
В июле ведомство опубликовало набор руководящих принципов, регулирующих эти сервисы, которые оказались менее обременительными по сравнению с первоначальным проектом.
Напомним, в январе в Китае вступил в силу закон, запрещающий создание дипфейков без разрешения субъекта или во вред национальным интересам.
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!