Главная / Технологии / Не верь глазам своим! Использование ИИ приводит к разобщению людей

Не верь глазам своим! Использование ИИ приводит к разобщению людей

опасность ИИ для человека

Слова общность, общество и общение имеют один и тот же корень — -общ- и происходят от прилагательного «общий». Это однокоренные слова, развившиеся из одного языкового источника.

Общность подразумевает наличие чего-то общего (интересов, целей, происхождения, свойств), что может служить предпосылкой для взаимодействия.

Общение — процесс взаимодействия, который часто строится на основе уже имеющейся общности или направлен на её создание/укрепление.

И, как курица и яйцо, здесь неизвестно что первично – общность или общение. То есть разобщенность людей неизбежно приведет к деградации имеющейся общности.

Развитие ИИ остановить невозможно. Да и ограничить или ввести какие-то общие правила использования ИИ — вряд ли.

Если мы перестаём верить изображениям (а затем, вероятно, и звуку, и тексту), что происходит с общением между людьми? Оно видоизменяется, а мы становимся свидетелями антропологических изменений.

Давайте спрогнозируем, как меняется роль живого общения в эпоху, когда «не верь глазам своим» становится нормой.

опасность ИИ для человека

Единственное, чему можно верить — прямое присутствие

Когда любая запись (фото, видео, аудио) потенциально поддельна, физическое взаимодействие становится последним оплотом доверия.

Личная встреча — единственный формат, где дипфейк невозможен (пока нет андроидов-двойников). Тактильные сигналы — рукопожатие, объятие, похлопывание по плечу. Их невозможно подделать на расстоянии.

Голосовая связь по телефону в реальном времени постепенно перестает быть надежной. Риск подделки за счет синтеза голоса в реальном времени очень высок. Моделируется тембр и темп речи. Такой риск тем выше, чем больше информации о нас может быть заложено в ИИ. Со временем скорее всего даже диалоги не помогут, так как ИИ спрогнозирует нашу реакцию и правильно ответит на любой его «разоблачающий» вопрос.

Следовательно, ценность личных встреч будет возрастать. Люди снова будут ездить друг к другу, чтобы просто «убедиться, что ты — это ты».

 

Кризис доверия к опосредованному общению

 

То, что сейчас норма — переписка, мемы, сторис, голосовые сообщения уже становится зоной перманентного сомнения.

Люди обмениваются сгенерированными ИИ изображениями и видео. Популярность сгенерированных изображений и видео зачастую существенно выше, чем натуральных. Это особо никого не напрягает до той поры, пока человек знает, что это видео иди фото фейковые.

Для борьбы с фейками, особенно в случаях, когда на основе информации необходимо принимать решения, люди начинают вырабатывать ритуалы верификации. Это могут быть: уточняющий обратный звонок, парольные фразы, вопросы о совместном прошлом, требования показать «живьём» какой-то предмет в кадре с определённого ракурса и др.

Появятся негласные (а затем и явные) протоколы общения. Например, партнёры договариваются, что признаком реальности будет, например, упоминание события, которое ИИ не мог знать.

Возникнет запрет на использование ИИ в личной коммуникации. Такое использование будет считаться грубым нарушением доверия, почти как ложь или измена.

Письма, присланные по почте (физической, а не электронной) постепенно станут более популярными.

 

Усталость от постоянной верификации

 

Люди уже начали избегать опосредованного общения. Даже есть рекомендации вполне официальных лиц, например, не отвечать на звонок с незнакомого телефона.

Любой контакт без криптографической подписи в скором времени может стать бессмысленным.

искусственный интеллект

Вследствие этого круг общения сужается до 3–5 человек, которых видишь лично каждый день.

Это прямой путь к фрагментации общества.  Доверие к семье, близким друзьям и холод и недоверие ко всем остальным.

Если фраза «не верь глазам своим» от Козьмы Пруткова была ироничной максимой, то в мире ИИ она становится инструкцией по выживанию.

Последствия использования ИИ в общении, которые уже ощущаются в обществе

 

Кризис доказательств. Фото и видео перестают быть надежными подтверждающими фактами в бизнесе, журналистике, суде и страховании.

Рост информационной тревожности. Любое шокирующее изображение можно причислить к фэйковым, даже если оно реально.

Эрозия личной идентичности. Подделка лиц, голосов и действий человека стирает границу между «я это делал» и «так сгенерировала сеть».

В ответ появляются цифровые сертификаты подлинности, цифровые подписи, детекторы ИИ и тд.

Прогнозы влияния ИИ на ближайшую перспективу

 

Паранойя здравого смысла

Уже происходит

  • Любое необычное фото или видео получает тег «скорее всего, сгенерировано ИИ». Даже реальные кадры катастроф, военных действий или научных открытий вызывают недоверие.искусственный интеллект
  • Пользователи массово начинают требовать «доказательств реальности» — нескольких ракурсов, прямой трансляции, метаданных.
  • Рост «скепсиса по умолчанию» к любым публичным сообщениям без возможности быстрой верификации.
  • В выигрыше оказываются дезинформаторы, маркетологи чёрного PR, пропагандисты. Им достаточно одного убедительного фейка, чтобы посеять сомнения в реальности.
  • В проигрыше — обыватели, журналисты, суды, очевидцы событий. Фраза «это мог сгенерировать ИИ» становится универсальным обесценивающим опровержением, не требующим доказательств.

 

Через 2–3 года

  • Разворачивается конкуренция между совершенствовании ИИ для создания фейков и экспертов по распознаванию участия ИИ в создании цифровых продуктов.
  • Попытки законодательного регулирования использования ИИ в социальных сетях не приводят к успеху, так как ИИ всегда впереди своих контролеров.
  • Любое неудобное свидетельство можно будет объявить ИИ-подделкой, даже не проверяя.

 

Конец визуальной доказательности (через 4–7 лет)

  • Новостные редакции вынуждены будут маркировать даже реальные фото и видео как «неподтверждённые» или эта информация будет так восприниматься в обществе по умолчанию.
  • Суды перестанут принимать фото/видео без блокчейн-сертификата с момента съёмки.
  • Страховые компании откажутся рассматривать визуальные доказательства, например, ДТП.
  • Создание семейных архивов перестает быть популярным.

 

Последние инструменты, которым мы будем доверять (5–10 лет)

  • Криптографическая привязкас указанием места (координат спутниковой навигации) и времени каждого снимка на уровне камеры (аппаратный ключ, подпись в момент съёмки).
  • Стандарты типа C2PA становятсяобязательными для соцсетей и СМИ.

C2PA (Coalition for Content Provenance and Authenticity) — это коалиция, которая разрабатывает и продвигает открытый технический стандарт для подтверждения происхождения и истории изменений цифрового контента. Стандарт направлен на борьбу с дезинформацией, повышение прозрачности и обеспечение возможности верификации подлинности медиафайлов (изображений, видео, аудио, документов). В коалицию C2PA входят более 200 организаций, среди которых Adobe, Google, Microsoft, OpenAI, Meta, BBC, Amazon, Sony и другие. C2PA не является универсальным решением для борьбы с дипфейками, но может быть частью комплексной системы верификации цифрового контента..

  • Внедрение ИИ-детекторовпрямо в браузерах и галереях телефонов с указанием вероятности использования ИИ при создании.

Мы будем стремиться распознать дипфейк не ради истины, а для того, чтобы поднять стоимость обмана для оператора и сохранить привычку сомневаться.

 

В результате весь контент естественным образом поделится на

  • Имеющий высокое доверие, который будет включать узкий круг контента, снятого на верифицированные устройства с цепочкой хранения (например, камеры госорганов, судебные эксперты).
  • «Нулевое доверие»— весь остальной визуальный мир. Любое изображение без подписи воспринимается как потенциальный фейк, и это становится социальной нормой.

Человеческая психика адаптируется, но какой ценой! Мы перестанем верить своим глазам даже в простых бытовых ситуациях — пока устройство не скажет «это реально».

Через 10-20 лет мы перестанем самостоятельно анализировать те или иные сообщения или видео, а предпочтем чаще обращаться за помощью к ИИ. Таким образом, один ИИ будет анализировать произведенный другим ИИ контент и выдавать нам рекомендации или готовые решения.

А где же здесь общение? В привычном для нас сейчас понимании в нем уже нет прежней необходимости, по крайней мере в части обмена информацией.

Владимир Литвиненко

Метки: