Новости AI май 2022: Google запрещает дипфейки, три типа цифровых двойников, подход к машинному обучению для автономных автомобилей и другое

3
Новости AI май 2022: Google запрещает дипфейки, три типа цифровых двойников, подход к машинному обучению для автономных автомобилей и другое

Наша подборка на тему искусственного интеллекта и анализа данных — это источник самых интересных новостей в мире AI, Больших данных и всего, что связано с аналитикой. В мае в мире вступили в силу новые требования по регулированию использования ИИ, вендоры порадовали новой функциональностью, и вот что еще происходило на рынке.

Google подтвердил, что запретил пользователям создавать дипфейки с помощью своей ML-платформы для совместной работы Colab. Сервис Google позволяет подписчиками запускать код на Python из своих браузеров на мощностях Google, а не собственном аппаратном обеспечении. Пользователи используют Colab для широкого круга целей, в том числе для создания дипфейков без согласия объектов, образы которых в них используются.

Цифровые люди становятся все более популярными в Китае. Виртуальные якоря, сотрудники и кумиры — сейчас самые востребованные приложения цифровых аватаров, согласно исследованию Лаборатории средств информации и коммуникаций в университете коммуникаций Китая. Эти три типа цифровых двойников используются во всех отраслях. Например, Bilibili, известная китайская платформа для публикации коротких видео, еще в 2021 году подтверждала, что содержит более 30 тысяч виртуальных ассистентов, которые танцуют, поют, рисуют, разговаривают и общаются с фанатами.

2770
Коментарии: 3

Комментировать могут только авторизованные пользователи.
Предлагаем Вам в систему или зарегистрироваться.

  • Марк Гальперин
    Рейтинг: 32
    ООО ITSOFT
    PR-менеджер
    22.06.2022 14:10

    Вероятно запрет на дипфейки верен. Современные средства позволяют создать практически неотличимый визуальный образ человека. Разобрать кто перед вами на экране на самом деле клон или реальная личность со временем будет всё труднее. А дальше, как в анекдоте: то ли он украл, то ли у него украли, но что-то тут неладно.

  • Екатерина Ляско
    Рейтинг: 931
    Global CIO
    Генеральный директор
    24.06.2022 19:00

    Спасибо за комментарий. Согласна, все именно так.

  • Андрей Лабутин
    Рейтинг: 118
    ОАО "Завод им. В.А. Дегтярева"
    Начальник отдела Разработки системы управления ресурсами организации. Управления информационных технологий
    27.06.2022 16:52

    Запретить дипфейки на бумаге конечно можно, но запретить дипфейки в принципе - уже нельзя. Гугл просто закрыл для разработчиков часть своих ресурсов и ПО, которое работает для создания дипов, НО - это же просто ресурс, а не технология.

    Меня больше напрягла новость о создании ИИ новых слов и их способности эти слова идентифицировать и ассоциировать.
    Напрягло сразу по двум причинам
    1. Это уже второй зафиксированный случай. Первый был в фейсбук, когда два компа с ИИ в процессе обучения с учителем (учителями друг для друга были эти самые компы) за достаточно короткий срок создали свой язык и начали общаться на нем. Человеку язык непонятен - эксперимент закрыли, отключив компы.
    2. Для того, чтобы ИИ мог провести обратное распознавание нового (придуманного им же слова), ему нужна какая-то статистика по нему. Статистика необходима для построения постоянных связей -в данном случае со словом "овощ", его производными и образами.

    И это, как бы подталкивает к мысли, что ИИ начал самостоятельно расставлять приоритеты, менять ранги связям, игнорируя данные статистики - т.е. предобучения.

Предметная область
Отрасль
Управление
Мы используем файлы cookie в аналитических целях и для того, чтобы обеспечить вам наилучшие впечатления от работы с нашим сайтом. Заходя на сайт, вы соглашаетесь с Политикой использования файлов cookie.