Clearview AI предложили запретить, робота научили думать вслух и другие новости из мира ИИ

Мы стремимся информировать читателей не только о событиях в биткоин-индустрии, но и рассказывать о том, что происходит в смежных технологических сферах — кибербезопасности, а теперь и в мире искусственного интеллекта (ИИ).

ForkLog собрал наиболее важные новости из мира ИИ за прошедшую неделю.

  • Tesla без водителя попала в ДТП, которое унесло жизни двух людей. Илон Маск заявил, что автомобиль двигался без автопилота, а в Сенате США предложили провести федеральное расследование.
  • Великобритания вмешалась в сделку между Nvidia и Arm под предлогом «национальной безопасности». Аналитики считают, что после этого шанс на ее завершение невелик.
  • Еврокомиссия представила новые правила регулирования ИИ.
  • Федеральная торговая комиссия США призвала компании обратить пристальное внимание на использование расистского и сексистского ИИ.
  • В Великобритании активисты подали в суд на TikTok за сбор данных о лицах детей.
  • Производитель суперкомпьютеров представил чип для ИИ с 850 тысячами ядер.
  • Ученые создали алгоритм для обнаружения теорий заговора в сети.
  • Американские военные интегрировали диалоговый ИИ в боевого робота для распознавания голосовых команд.
  • Итальянские исследователи научили робота Pepper «думать вслух» чтобы понять, как он принимает решения.

Tesla на автопилоте попала в ДТП с двумя жертвами

В пригороде Хьюстона Tesla S, предположительно в режиме автопилота, на высокой скорости врезалась в дерево и загорелась. В результате аварии погибли двое мужчин 59 и 69 лет.

Как сообщили в местном департаменте полиции, в момент столкновения электрокаром никто не управлял. Один из пассажиров находился на переднем пассажирском сидении, второй — на заднем. 

Пожарным потребовалось 113 600 литров воды и четыре часа на тушение автомобиля из-за аккумуляторной батареи, которая продолжала воспламеняться.

Позже Илон Маск заявил, что разбившийся электрокар не был в режиме автопилота.

«Записи данных показывают, что Autopilot не был включен, а функция полного беспилотного вождения для этого автомобиля не приобреталась», — написал бизнесмен.

Он добавил, что для работы автопилота необходимо наличие разметки на дороге, которой не было на улице, где произошло ДТП.

Американские сенаторы Ричард Блюменталь и Эдвард Марки призвали Национальную администрацию безопасности дорожного движения принять «корректирующие меры» против Tesla, чтобы предотвратить дальнейшее неправомерное использование расширенной функции помощи водителю (ADAS).

Они попросили федеральное агентство определить точную причину недавней аварии и разработать рекомендации по улучшению автоматизированных систем вождения и ADAS, таких как автопилот Tesla.

Великобритания вмешалась в сделку между Nvidia и Arm

Правительство Великобритании вмешалось в сделку между Nvidia и Arm на $40 млрд «из соображений национальной безопасности».

До 30 июля 2021 года антимонопольное ведомство подготовит отчет, изучив вопросы конкуренции и нацбезопасности предстоящей сделки.

На фоне этого сообщения акции Nvidia упали в цене на 4%.

Аналитики считают, что шансы закрыть сделку не превышают 10%. Однако руководство компании все еще уверено, что Arm станет частью Nvidia в 2022 году, как и планировалось ранее.

В сентябре 2020 года Nvidia объявила о покупке разработчика процессоров Arm у японского Softbank. Против сделки выступили Qualcomm, Google и Microsoft. Компании опасаются, что новый владелец предложит невыгодные условия.

Еврокомиссия представила рекомендации по регулированию ИИ

Еврокомиссия представила новые правила использования ИИ на территории Евросоюза, которые включают запрет на эксплуатацию большей части технологий массовой слежки за гражданами.

Авторы документа предложили запретить приложения, позволяющие властям проводить социальную оценку или эксплуатировать детей.

На высокорисковый ИИ, используемый для найма персонала, обслуживания критической инфраструктуры, миграции и нужд правоохранительных органов, Еврокомиссия предложила наложить строгие ограничения.

Нарушителям грозит штраф до 6% от их глобального оборота или 30 млн евро. Новые правила должны одобрить Европарламент и страны-члены ЕС. 

В США регулятор пригрозил компаниям, которые используют предвзятый ИИ

Федеральная торговая комиссия США призвала компании обратить пристальное внимание на использование сексистских и расистских алгоритмов. В противном случае регулятор пригрозил взять ситуацию в свои руки.

Штатный юрист ведомства Элиза Джилсон отметила, что закон запрещает продажу или использование алгоритмов, которые могут привести к дискриминации по признаку расы, цвета кожи, религии, национального происхождения, пола, семейного положения или возраста.

Джилсон напомнила, что подделка результатов тестирования алгоритмов на предмет дискриминации нарушает федеральное законодательство.

В Великобритании на TikTok подали в суд за распознавание лиц детей

Сервис TikTok обвинили в незаконном сборе информации о лицах и других конфиденциальных данных британских детей.

Бывший детский омбудсмен Энн Лонгфилд заявила, что платформа незаконно собирала личную информацию о 3,5 млн несовершеннолетних пользователях с 2018 года.

В TikTok заявили, что не согласны с обвинениями и намерены отстоять свою позицию.

Если суд признает вину компании, она выплатит более £3 млрд компенсаций.

Производитель суперкомпьютеров представил ИИ чип с 850 тысячами ядер

Компания Cerebras представила процессор Wafer Scale Engine второго поколения (WSE-2), предназначенный для расчетов в области машинного обучения и искусственного интеллекта.

Он содержит 2,6 трлн транзисторов, 850 тысяч ядер, 40 Гб буферной памяти SRAM с пропускной способностью 20 Пбайт/с. Сам процессор разбит на небольшие блоки, которые соединяются между собой внутренней сетью, производительностью до 200 Пбит/с.

WSE-2 производится по 7-нм техпроцессу, а его площадь составляет 46 тысяч мм2.

Wafer Scale Engine 2. Данные: Cerebras.

Новый процессор станет частью суперкомпьютера CS-2, поставки которого начнутся в третьем квартале 2021 года. Его цена пока неизвестна. Прошлое поколение, согласно некоторым данным, стоило около $2 млн.

Ученые создали алгоритм для обнаружения теорий заговора в сети

Группа американских исследователей разработала алгоритм, который идентифицирует в соцсетях теории заговора, связанные с COVID-19, и моделирует их развитие с течением времени.

Ученые собрали набор данных из 1,8 млн сообщений в Twitter с релевантными ключевыми словами, которые помогли сформировать четыре популярные теории заговора:

  • Вышки сотовой связи 5G распространяют вирус;
  • Фонд Гейтсов имеет отношение к пандемии;
  • Вирус разработали в лаборатории;
  • Вакцины против COVID-19 опасны.

Затем ученые вручную пометили несколько сотен сообщений в каждой категории для построения обучающих наборов.

Изменение важности слов с течением времени для твитов, связанных с теорией заговора Билла и Мелинды Гейтс. Чем темнее цвет, тем важнее слово. Данные: исследование.

В результате выяснилось, что дезинформационные сообщения содержат больше негативных настроений, чем твиты с фактами.

Исследователи также обнаружили, что со временем теории заговора дополняются деталями из других конспирологических версий и несвязанных реальных событий.

Команда надеется, что их алгоритм поможет в будущем быстрее выявлять распространение подобных теорий и бороться с фейками в сети.

Американские военные разработали диалоговый ИИ для роботов

Американские военные и исследователи Университета Южной Калифорнии разработали диалоговую систему ИИ для боевого робота, чтобы тот понимал устные команды.

Разработчики обучили систему распознавать речь из диалогов солдат, записанных во время поисково-спасательной операций, перенесли модель в робота и успешно протестировали ее в аналогичной учебной среде.

Робот с диалоговым ИИ на борту во время тестирования. Данные: армия США.

Команда планирует улучшить систему, обучив ее большему числу команд, и интегрировать компьютерное зрение для анализа жестов или выражения лица.

Робота Pepper научили «думать вслух»

Итальянские разработчики научили робота Pepper «мыслить вслух», чтобы лучше понимать, как он принимает решения.

В качестве эксперимента они обучили его накрывать на стол по правилам этикета. Затем разработчики намеренно просили робота нарушить их, положив салфетку не в том месте.

«Эта ситуация меня расстраивает. Я бы никогда не нарушил правила, но я не могу его [человека, отдавшего команду] расстроить, поэтому делаю то, что он хочет», — «подумал» Pepper вслух после того, как убедился в правильности запроса.

По словам исследователей, эта методика поможет решить проблему «черного ящика» и сделать процесс принятия решений алгоритмами прозрачнее. Они также обнаружили, что с включенным «внутренним голосом» Papper с более высокой вероятностью успешно выполнит задачу.

Также на Forklog:

  • Новозеландский стартап создал виртуального Эйнштейна;
  • Правозащитники призвали Байдена отказаться от использования Clearview AI;
  • MIT запустил инициативу, ориентированную на конфиденциальность данных;
  • В США предложили законодательно запретить Clearview AI;
  • Исследователи создали дипфейк-модель для подделки спутниковых снимков.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK
Exit mobile version