Генеративные алгоритмы: может ли это стать самой прорывной технологией 2020-х годов?

ИЗОБРАЖЕНИЕ КРЕДИТ:
Кредит изображения
Istock

Генеративные алгоритмы: может ли это стать самой прорывной технологией 2020-х годов?

Генеративные алгоритмы: может ли это стать самой прорывной технологией 2020-х годов?

Текст подзаголовка
Контент, созданный компьютером, становится настолько похожим на человеческий, что его становится невозможно обнаружить и отклонить.
    • Автор:
    • Имя автора
      Квантумран Форсайт
    • 21 февраля 2023

    Несмотря на первые скандалы с дипфейками, вызванными генеративными алгоритмами, эти технологии искусственного интеллекта (ИИ) остаются мощным инструментом, который многие отрасли — от медиакорпораций до рекламных агентств и киностудий — используют для создания правдоподобного контента. Некоторые эксперты утверждают, что за генеративным ИИ следует более внимательно следить, поскольку возможности этих алгоритмов ИИ вскоре будут иметь потенциал искажать и обманывать общественность, не говоря уже об автоматизации огромного количества работы белых воротничков.

    Контекст генеративных алгоритмов

    Генеративный ИИ или алгоритмы, которые могут создавать контент (включая текст, аудио, изображения, видео и т. д.) с минимальным вмешательством человека, добился значительных успехов с 2010-х годов. Например, Generative Pre-trained Transformer 3 (GPT-3) OpenAI был выпущен в 2020 году и считается самой передовой нейронной сетью в своем роде. Он может генерировать текст, практически неотличимый от того, что написал бы человек. Затем, в ноябре 2022 года, OpenAI выпустила ChatGPT, алгоритм, который привлек значительный интерес потребителей, частного сектора и средств массовой информации благодаря своей потрясающей способности предоставлять подробные ответы на запросы пользователей и формулировать ответы во многих областях.

    Еще одна технология генеративного ИИ, которая набирает популярность (и известность), — это дипфейки. Технология дипфейков использует генеративно-состязательные сети (GAN), где два алгоритма обучают друг друга создавать изображения, максимально приближенные к оригиналу. Хотя эта технология может показаться сложной, ее стало относительно легко производить. Многочисленные онлайн-приложения, такие как Faceswap и ZAO Deepswap, могут создавать дипфейковые изображения, аудио и видео за считанные минуты (а в некоторых приложениях — мгновенно).

    Хотя все эти генеративные инструменты искусственного интеллекта изначально были разработаны для продвижения технологий машинного обучения и глубокого обучения, они также использовались для неэтичных практик. Благодаря этим инструментам процветали дезинформационные и пропагандистские кампании следующего поколения. Синтетические медиа, такие как статьи, видео и изображения, созданные искусственным интеллектом, привели к потоку фальшивых новостей. Боты комментариев Deepfake даже использовались для преследования женщин и меньшинств в Интернете. 

    Разрушительное воздействие

    Системы генеративного ИИ быстро находят широкое применение во многих отраслях. Исследование, опубликованное в 2022 году Ассоциацией вычислительной техники, показало, что ведущие медиакомпании, такие как Associated Press, Forbes, New York Times, Washington Post и ProPublica, используют ИИ для создания целых статей с нуля. Этот контент включает в себя сообщения о преступлениях, финансовых рынках, политике, спортивных мероприятиях и иностранных делах.

    Генеративный ИИ также чаще используется в качестве входных данных при написании текстов для различных приложений, от контента, созданного пользователями и компаниями, до отчетов, написанных государственными учреждениями. Когда ИИ пишет текст, его участие обычно не выявляется. Некоторые утверждают, что, учитывая возможность неправомерного использования, пользователи ИИ должны быть прозрачными в отношении его использования. Фактически, этот тип раскрытия информации, вероятно, станет законом к концу 2020-х годов, как это предлагается в Законе об алгоритмическом правосудии и прозрачности онлайн-платформ от 2021 года. 

    Еще одна область, где необходимо генеративное раскрытие информации об ИИ, — это реклама. Исследование 2021 года, опубликованное в Journal of Advertising, показало, что рекламодатели автоматизируют многие процессы для создания «синтетической рекламы», созданной путем анализа и модификации данных. 

    Рекламодатели часто используют тактику манипулирования, чтобы сделать рекламу более персонализированной, рациональной или эмоциональной, чтобы потребители захотели приобрести продукт. Манипуляции с рекламой включают в себя любые изменения, внесенные в рекламу, такие как ретушь, макияж и освещение/ракурс. Однако практика цифровых манипуляций стала настолько серьезной, что может привести к нереалистичным стандартам красоты и дисморфии тела среди подростков. Несколько стран, таких как Великобритания, Франция и Норвегия, обязали рекламодателей и влиятельных лиц прямо указывать, подвергались ли их контенту манипуляции.

    Последствия генеративных алгоритмов

    Более широкие последствия генеративных алгоритмов могут включать: 

    • Многие профессии белых воротничков, такие как разработка программного обеспечения, юристы, представители службы поддержки клиентов, торговые представители и т. д., увидят все большую автоматизацию своих менее важных рабочих обязанностей. Эта автоматизация повысит производительность среднего работника, уменьшив при этом потребность компаний в дополнительном найме. В результате все больше компаний (особенно небольших или менее известных) получат доступ к квалифицированным специалистам в критический период, когда рабочая сила во всем мире сокращается из-за выхода на пенсию бумеров.
    • Генеративный ИИ используется для написания авторских статей и статей для лидеров мнений.
    • Более широкое использование генеративного ИИ для оптимизации создания цифровых версий, когда разные стороны одной и той же истории пишутся одновременно.
    • Дипфейк-контент используется в рекламе и фильмах для омоложения актеров или возвращения умерших.
    • Приложения и технологии дипфейков становятся все более доступными и дешевыми, что позволяет большему количеству людей участвовать в пропаганде и дезинформации.
    • Больше стран требуют от компаний раскрытия информации об использовании созданного ИИ контента, персонажей, писателей, знаменитостей и влиятельных лиц.

    Вопросы для комментариев

    • Как генеративный ИИ используется в вашей работе, если вообще используется?
    • Каковы другие преимущества и опасности использования ИИ для массового производства контента?