Новое предупреждение для пользователей Twitter
Опубликованно 27.11.2019 00:24
Видео фейк и подделка фотографий, часто на основе таких событий, как высадка на Луну и якобы появлений НЛО, были предметом восхищения на протяжении многих десятилетий.
Такие снимки часто глубоко фальшивое содержание, называется так, потому что он использует глубокое обучение связано с нейронных сетей и цифровой обработки изображения.
На прошлой неделе, Twitter раскрыл планы по введению новой политики в области глубокого поддельные видео на своей платформе.
Компании предложил бы предупредить пользователей о глубокой поддельные содержание маркировки твиты с “синтетическим или манипулируют СМИ”. Twitter говорит, что СМИ могут быть сняты в тех случаях, когда это может привести к серьезным вред, но не вводят строгую позицию удаления. Пользователи должны до 27 ноября, чтобы обеспечить обратную связь.
При принятии данного предупреждения-только подход к глубокой фейки, социальные медиа гигант проявил недальновидность.
ПОЧЕМУ ГЛУБОКИЙ ПОДДЕЛКИ ОПАСНЫ
С достижениями в области компьютерных наук, глубокое фейки становятся все более мощным инструментом, чтобы обмануть людей, используя социальные медиа.
Глубокий фейк роликов знаменитостей и политиков достаточно реалистичным, чтобы обмануть пользователей в принятии финансовых, политических и личных решений, основанных на фальшивых показаниях других.
Будь то Дэвид Кох эректильной дисфункции лохотрон крем, заявление Дональда Трампа о том, что СПИД был ликвидирован или поддельные интервью с Эндрю Форрест, ведущие к финансовой афере, глубокий подделки представляют серьезную опасность для нашей способности доверять тому, что мы смотреть онлайн.
Социальные медиа-компании до сих пор занимают небрежный подход к этой угрозе. Они даже поощряли использование алгоритмов цены позволяя пользователям экспериментировать с анимированной маски для лица и кроме идеи о том, как использовать программы редактирования.
Глубокий поддельной продукции-это профессиональная версия этой практики. В худшем случае она может даже угрожать демократии.
Последний проект политики в Twitter на глубокие фейки создает опасный прецедент. Это позволяет социальные медиа-платформы для гандбола от своей обязанности защищать клиентов от манипулирования изображениями и изображениями.
В Twitter должны быть столь же ответственными, как телевидение
Пришло время гигантов социальных медиа, таких как Twitter начал видеть себя как в версии 21-го века бесплатно-эфирное телевидение. С телевизором, есть четкие указания о том, что нельзя транслировать.
Twitter был обвинен в отсутствии руководства в свой план предупреждение о поддельных материалов. Фото: Алистер Пайк / АФП
Начиная с 1992 года, австралийцы были защищены Законом о службах вещания 1992, и то, что он показывает-это “справедливое и точное освещение”. Закон защищает зрителей в отношении происхождения и подлинности телевизионного контента.
Те же принципы должны применяться к социальным медиа. Американцы сейчас тратят больше времени на социальные медиа, чем они смотрят телевизор, и Австралия не отстает.
Предложив им нужны только твитты флаг с глубокой поддельный контент, предлагаемый политика в Twitter преуменьшает серьезность проблемы.
ПОСЫЛАЯ НЕПРАВИЛЬНОЕ СООБЩЕНИЕ
Проект политики в Twitter опасно на два фронта.
Во-первых, он предполагает, что компания каким-то образом вносит свой вклад в защите своих пользователей. В действительности, решение в Twitter сродни смотрит ребенок борьба, чтобы искупаться в сильный прибой пока близлежащие органы волны табличку с надписью “некоторые волны могут быть трудно судить” вместо того чтобы реально помогать.
Пенсионеры и неопытные пользователи соцсетей особо уязвимы для глубокого подделок. Это потому, что они предрасположены доверять онлайн-контента, который выглядит подлинным.
Предложение вторая причина в Twitter-это опасно, потому что тролли в социальных сетях и кукольном армий наслаждаться удивительной аудитории. Марионетки являются специалистами обмануть пользователей в полагая, что они являются поддельными человек (или несколько фальшивых людей) посредством ложных сообщений и онлайн-идентичности.Реальная угроза глубокого фейки
Хай-тек кованые видео может нанести ущерб нашей системы правосудия, средств массовой информации, и в технологическом мире в целом. Готовы ли мы к угрозе 'глубокий фейки'?
В основном, содержание, что была обозначена в качестве глубокой подделка будет эксплуатировать людей, желающих усилить свое распространение. Это нереалистично полагать, что этого не случится.
Если Twitter флаги сообщения, которые являются поддельными, но оставляет их, вероятным результатом станет рост популярности в этом содержании. Как в алгоритмах социальных медиа, это означает большее число поддельных видео и изображения будут “поощрять”, а не убирается.
Twitter имеет возможность взять на себя руководящую роль в предотвращении распространения глубокий поддельные содержание путем выявления и устранения глубоких подделок от своей платформы. Всех основных социальных медиа-платформ, обязаны представлять единый подход к предотвращению и устранению манипулировать и поддельные изображений.
Обращение Нэнси Пелоси глубокий поддельные видео в начале этого года было выявлено несоответствие социальных медиа в решении лживые образы. С YouTube удалили ролик из своей платформы, Facebook помечен как ложные и Twitter пусть так и останется.
Twitter-это в бизнесе помогает пользователям репост ссылки и контент столько раз, сколько возможно. Он создает прибыль, генерируя повторяющиеся рефералов, комментарии и принятии его содержание через пропагандируемые тренды.
Если в глубине фейки не удаляются из Твиттера, их рост будет экспоненциальным.
НАДВИГАЮЩУЮСЯ УГРОЗУ
Ранние версии таких ложного содержания были относительно легко обнаружить. Люди в первой глубокой подделка клипс оказалось нереально. Их глаза не мигают и их мимика не совпадает с словами говорят.
Есть также примеры безобидные манипуляции с изображениями. Они включают веб-приложения Snapchat и Facebook, что позволяет пользователям изменять свои фотографии (как правило, селфи) для добавления фона или походить на таких персонажей, как милые животные.
Однако, это новое поколение измененных изображений часто трудно отличить от реальности. И как преступников и шутников улучшить свои производственные глубокого подделок, с другой стороны это палка о двух концах может качнуться в любой момент.
Дэвид Кук, преподаватель кафедры компьютерной науки и безопасности в Университете Эдит Коуон.
Вы думаете, что Twitter должен ужесточить свою позицию по глубокой подделка? Дайте нам знать, что вы думаете в комментариях ниже.
Эта статья первоначально появилась на разговор и была воспроизведена с разрешениятенденции в технологии270
Категория: Общество