Слова общность, общество и общение имеют один и тот же корень — -общ- и происходят от прилагательного «общий». Это однокоренные слова, развившиеся из одного языкового источника.
Общность подразумевает наличие чего-то общего (интересов, целей, происхождения, свойств), что может служить предпосылкой для взаимодействия.
Общение — процесс взаимодействия, который часто строится на основе уже имеющейся общности или направлен на её создание/укрепление.
И, как курица и яйцо, здесь неизвестно что первично – общность или общение. То есть разобщенность людей неизбежно приведет к деградации имеющейся общности.
Развитие ИИ остановить невозможно. Да и ограничить или ввести какие-то общие правила использования ИИ — вряд ли.
Если мы перестаём верить изображениям (а затем, вероятно, и звуку, и тексту), что происходит с общением между людьми? Оно видоизменяется, а мы становимся свидетелями антропологических изменений.
Давайте спрогнозируем, как меняется роль живого общения в эпоху, когда «не верь глазам своим» становится нормой.
Единственное, чему можно верить — прямое присутствие
Когда любая запись (фото, видео, аудио) потенциально поддельна, физическое взаимодействие становится последним оплотом доверия.
Личная встреча — единственный формат, где дипфейк невозможен (пока нет андроидов-двойников). Тактильные сигналы — рукопожатие, объятие, похлопывание по плечу. Их невозможно подделать на расстоянии.
Голосовая связь по телефону в реальном времени постепенно перестает быть надежной. Риск подделки за счет синтеза голоса в реальном времени очень высок. Моделируется тембр и темп речи. Такой риск тем выше, чем больше информации о нас может быть заложено в ИИ. Со временем скорее всего даже диалоги не помогут, так как ИИ спрогнозирует нашу реакцию и правильно ответит на любой его «разоблачающий» вопрос.
Следовательно, ценность личных встреч будет возрастать. Люди снова будут ездить друг к другу, чтобы просто «убедиться, что ты — это ты».
Кризис доверия к опосредованному общению
То, что сейчас норма — переписка, мемы, сторис, голосовые сообщения уже становится зоной перманентного сомнения.
Люди обмениваются сгенерированными ИИ изображениями и видео. Популярность сгенерированных изображений и видео зачастую существенно выше, чем натуральных. Это особо никого не напрягает до той поры, пока человек знает, что это видео иди фото фейковые.
Для борьбы с фейками, особенно в случаях, когда на основе информации необходимо принимать решения, люди начинают вырабатывать ритуалы верификации. Это могут быть: уточняющий обратный звонок, парольные фразы, вопросы о совместном прошлом, требования показать «живьём» какой-то предмет в кадре с определённого ракурса и др.
Появятся негласные (а затем и явные) протоколы общения. Например, партнёры договариваются, что признаком реальности будет, например, упоминание события, которое ИИ не мог знать.
Возникнет запрет на использование ИИ в личной коммуникации. Такое использование будет считаться грубым нарушением доверия, почти как ложь или измена.
Письма, присланные по почте (физической, а не электронной) постепенно станут более популярными.
Усталость от постоянной верификации
Люди уже начали избегать опосредованного общения. Даже есть рекомендации вполне официальных лиц, например, не отвечать на звонок с незнакомого телефона.
Любой контакт без криптографической подписи в скором времени может стать бессмысленным.

Вследствие этого круг общения сужается до 3–5 человек, которых видишь лично каждый день.
Это прямой путь к фрагментации общества. Доверие к семье, близким друзьям и холод и недоверие ко всем остальным.
Если фраза «не верь глазам своим» от Козьмы Пруткова была ироничной максимой, то в мире ИИ она становится инструкцией по выживанию.
Последствия использования ИИ в общении, которые уже ощущаются в обществе
Кризис доказательств. Фото и видео перестают быть надежными подтверждающими фактами в бизнесе, журналистике, суде и страховании.
Рост информационной тревожности. Любое шокирующее изображение можно причислить к фэйковым, даже если оно реально.
Эрозия личной идентичности. Подделка лиц, голосов и действий человека стирает границу между «я это делал» и «так сгенерировала сеть».
В ответ появляются цифровые сертификаты подлинности, цифровые подписи, детекторы ИИ и тд.
Прогнозы влияния ИИ на ближайшую перспективу
Паранойя здравого смысла
Уже происходит
- Любое необычное фото или видео получает тег «скорее всего, сгенерировано ИИ». Даже реальные кадры катастроф, военных действий или научных открытий вызывают недоверие.

- Пользователи массово начинают требовать «доказательств реальности» — нескольких ракурсов, прямой трансляции, метаданных.
- Рост «скепсиса по умолчанию» к любым публичным сообщениям без возможности быстрой верификации.
- В выигрыше оказываются дезинформаторы, маркетологи чёрного PR, пропагандисты. Им достаточно одного убедительного фейка, чтобы посеять сомнения в реальности.
- В проигрыше — обыватели, журналисты, суды, очевидцы событий. Фраза «это мог сгенерировать ИИ» становится универсальным обесценивающим опровержением, не требующим доказательств.
Через 2–3 года
- Разворачивается конкуренция между совершенствовании ИИ для создания фейков и экспертов по распознаванию участия ИИ в создании цифровых продуктов.
- Попытки законодательного регулирования использования ИИ в социальных сетях не приводят к успеху, так как ИИ всегда впереди своих контролеров.
- Любое неудобное свидетельство можно будет объявить ИИ-подделкой, даже не проверяя.
Конец визуальной доказательности (через 4–7 лет)
- Новостные редакции вынуждены будут маркировать даже реальные фото и видео как «неподтверждённые» или эта информация будет так восприниматься в обществе по умолчанию.
- Суды перестанут принимать фото/видео без блокчейн-сертификата с момента съёмки.
- Страховые компании откажутся рассматривать визуальные доказательства, например, ДТП.
- Создание семейных архивов перестает быть популярным.
Последние инструменты, которым мы будем доверять (5–10 лет)
- Криптографическая привязкас указанием места (координат спутниковой навигации) и времени каждого снимка на уровне камеры (аппаратный ключ, подпись в момент съёмки).
- Стандарты типа C2PA становятсяобязательными для соцсетей и СМИ.
C2PA (Coalition for Content Provenance and Authenticity) — это коалиция, которая разрабатывает и продвигает открытый технический стандарт для подтверждения происхождения и истории изменений цифрового контента. Стандарт направлен на борьбу с дезинформацией, повышение прозрачности и обеспечение возможности верификации подлинности медиафайлов (изображений, видео, аудио, документов). В коалицию C2PA входят более 200 организаций, среди которых Adobe, Google, Microsoft, OpenAI, Meta, BBC, Amazon, Sony и другие. C2PA не является универсальным решением для борьбы с дипфейками, но может быть частью комплексной системы верификации цифрового контента..
- Внедрение ИИ-детекторовпрямо в браузерах и галереях телефонов с указанием вероятности использования ИИ при создании.
Мы будем стремиться распознать дипфейк не ради истины, а для того, чтобы поднять стоимость обмана для оператора и сохранить привычку сомневаться.
В результате весь контент естественным образом поделится на
- Имеющий высокое доверие, который будет включать узкий круг контента, снятого на верифицированные устройства с цепочкой хранения (например, камеры госорганов, судебные эксперты).
- «Нулевое доверие»— весь остальной визуальный мир. Любое изображение без подписи воспринимается как потенциальный фейк, и это становится социальной нормой.
Человеческая психика адаптируется, но какой ценой! Мы перестанем верить своим глазам даже в простых бытовых ситуациях — пока устройство не скажет «это реально».
Через 10-20 лет мы перестанем самостоятельно анализировать те или иные сообщения или видео, а предпочтем чаще обращаться за помощью к ИИ. Таким образом, один ИИ будет анализировать произведенный другим ИИ контент и выдавать нам рекомендации или готовые решения.
А где же здесь общение? В привычном для нас сейчас понимании в нем уже нет прежней необходимости, по крайней мере в части обмена информацией.
Владимир Литвиненко












