Байден назвал опасения насчет ИИ преждевременными
Президент США Джо Байден заявил, что риски искусственного интеллекта еще не изучены. Однако, по его мнению, компании должны отвечать за безопасность ИИ-продуктов, пишет Reuters.
На встрече с советниками по науке и технологиям Байден сказал, что искусственный интеллект может помочь в борьбе с болезнями и изменениями климата. При этом важно устранять потенциальные риски для общества, национальной безопасности и экономики, добавил он.
«С моей точки зрения, технологические компании обязаны убедиться, что их продукты безопасны, прежде чем обнародовать их», — сказал президент.
Когда его спросили, опасен ли ИИ, Байден ответил:
«Это еще предстоит выяснить. Возможно».
По словам президента, социальные сети уже продемонстрировали вред, который мощные технологии могут нанести без надлежащих мер безопасности.
«В отсутствие гарантий мы видим влияние на психическое здоровье, представление о себе, чувства и безнадежность, особенно среди молодежи», — сказал Байден.
Он повторил призыв к Конгрессу США принять двухпартийный закон о конфиденциальности. Инициатива установит ограничения на сбор личных данных в сети, запретит ориентированную на детей рекламу и сделает приоритетом здоровье и безопасность при разработке продуктов.
Перед встречей акции ИИ-компаний резко упали в цене. Например, стоимость бумаг фирмы C3.ai Inc снизилась на 24%. Акции таиландской охранной компании Guardforce AI упали на 29%, BigBear.ai — на 16%, а SoundHound AI — на 13%.
Это не первый раз, когда администрация президента обращает внимание на технологию. В 2022 году Белый дом выпустил Билль об ИИ-правах, призванный «защитить американскую общественность». Документ отстаивает пять принципов:
- безопасность и эффективность систем;
- конфиденциальность данных;
- алгоритмическая безопасность от дискриминации;
- уведомление и объяснение целей использования ИИ-систем;
- человеческие альтернативы, рассмотрение и отказ от использования алгоритмов.
Напомним, в марте группа по технологической этике призвала Федеральную торговую комиссию США провести расследование в отношении OpenAI.
В том же месяце более тысячи экспертов в области ИИ призвали приостановить разработку больших языковых моделей на шесть месяцев. Среди подписантов письма значатся Илон Маск и Стив Возняк.
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!