alexpashkov (alexpashkov) wrote,
alexpashkov
alexpashkov

Categories:

ФБР: Мир приближается к эпохе, где фейк нельзя будет отличить от реальности

Если кто не знает, что такое Deepfake, я поясню. Это глубоко проработанное, качественное фейковое видео, отсюда и название, дословно – глубокий фейк.

Уже сейчас его трудно отличить от настоящего. Это могут сделать порой только специалисты, а точнее, группа специалистов разных направлений. А что говорить о ближайшем будущем? Грядет эпоха Искусственного Интеллекта. Сокращенно – ИИ. И в ФБР полагают, что уже скоро этот самый ИИ сможет генерить в своем «мозгу» фейковое видео такого качества, что они будут неотличимы от настоящего.

«Поскольку ИИ продолжает улучшаться и развиваться, мы достигнем точки, в которой нет заметной разницы между видео, генерируемым ИИ, и реальным видео», - сказал Крис Пихота, исполнительный помощник директора научно-технического отдела ФБР, в интервью WSJ Pro.

А теперь представьте, какие горизонты, какой масштаб открывается для нечистых на руку бизнесменов, политиков, просто мошенников и аферистов. Они смогут делать видео на любой «вкус и цвет». Нужно дискредитировать конкурента? Пожалуйста – вот вам видео как он развлекается в номере с несовершеннолетней…И ведь не отличишь такое видео от настоящего. А пока будут проходить различные расследования, проверки, сбор доказательств того, что этого не было, поезд уже уйдет. Общественное мнение будет сформировано. В США, где подобными приемами не брезговали никогда, даже в эпоху обыкновенных бумажных газет, политики всерьез обеспокоены такими перспективами.

Например, Мик Баччо, который в этом месяце оставил свою должность главного сотрудника по информационной безопасности в кампании кандидата в президенты от Демократической партии Пита Буттигига, заявил на одной из конференций, что сотрудники его избирательного штаба прибегают к видеозаписи передвижений господина Буттигига в течение всего дня, чтобы иметь возможность разоблачать любые видеовбросы, которые могут появиться.

В Соединенных Штатах опасаются того, что широкое использование Deepfake может подорвать доверие к институтам власти, даже если потом и удастся доказать, ложь таких фейковых видео. При некоторые высокопоставленные чиновники не смогли не вставить три копейки и про Россию.

«Американская публика становится похожей на русское население, которое действительно разочаровалось в идее правды и как бы пожимает плечами. Люди станут равнодушными, и это губительно для демократии», - прокомментировала грядущую проблему Сюзанна Сполдинг, старший советник в Центре стратегических и международных исследований, некоммерческой организации в Вашингтоне.

То, что основной поток фейковых видео сегодня идет как раз из США или от их подопечных, типа «белых касок» в Сирии, эта дамочка умолчала.

И все-таки, а что Титов? В смысле, чем это может аукнуться нам? Если экстраполировать ситуацию в США на нашу страну, даже к гадалке не надо ходить, чтобы понять, что разные Навальные будут штамповать видеофейки созданные ИИ (искусственным интеллектом) пачками. На самые разные темы. Ведь этических норм у этой публики нет и никогда не было. А уж технические возможности им подгонят их «друзья».

Что же делать в такой ситуации, когда ничему увиденному нельзя будет верить? Пока нет ответа на этот вопрос ни у ФБР, ни у ФСБ, я думаю. Хотя…Может быть у ФСБ ответ есть, но это большой-большой секрет.

Дмитрий Борисенко

Источник: https://karaulovlife.livejournal.com/41833.html

Tags: ФБР
Subscribe

promo alexpashkov апрель 3, 10:00 13
Buy for 10 tokens
В наиболее пострадавшей от эпидемии Ломбардии, где сейчас работают медики-добровольцы, российские специалисты выявили несколько необычных случаев смерти от COVID-19. Только за одни сутки в пансионате города Громо несколько пациентов с бессимптомным течением заболевания просто умерли во сне. За…
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments