«Гражданская платформа» опубликовала место выборов, в котором она использовала голос премьер-министра Матеуша Моравецкого, читающего электронную почту его предполагаемого автора.
Михал Водек из юридической фирмы LEGAL, юридическая квалификация Deepfake проста с помощью избирательного кодекса.
Есть только две причины для расследования. Во-первых, было ли оно использовано в избирательном материале, который является любым сообщением от комитета, обнародованным и установленным в связи с проведенными выборами. В частности, плакаты, листовки и пароли, а также заявления или другие формы агитации. А во-вторых, содержит ли Deepfake в качестве такого материала недостоверную информацию, - поясняет юрисконсульт. В нем говорится, что если ответ на эти вопросы да, то кандидат или представитель избирательного комитета может обратиться в суд для вынесения решения.
Поэтому можно рассмотреть вопрос о том, следует ли, например, включить заметку по этому вопросу в место Deepfake.
- Для основного вопроса: содержит ли предвыборный материал правдивую или ложную информацию, это сообщение важно в правовом аспекте. Конечно, именно поэтому выводы были сделаны и небезопасны, через некоторое время он начал размещаться на месте PO, — говорит Михаил Вошчек.
Эксперт также указывает, что использование образа говорящего премьер-министра должно было составить подлинность материала.
- Если бы вы использовали сказочные персонажи или вымышленные голоса, такие как голос за кадром, Пиноккио или Дональд Дак, в отличие от вопроса об авторском праве на этих персонажей, сообщение не было бы прямым. Он был бы сатирическим пастухом. То, что среднестатистический получатель ассоциировал бы не с правдой, а с юмористическим паскалем, - объясняет он.
Как он указывает, не имеет значения, что подлинность электронных писем, поступающих из ящика министра, еще не подтверждена.
— Безусловно, этот аспект наравне с агитационно-политическим расчетом привел к тому, что пока ни один из потенциально заинтересованных комитетов не предпринял юридических шагов, — заключает специалист.
Отсутствие правил — как на национальном уровне, так и на уровне ЕС — также упоминает д-р Михал Новаковски, юрисконсульт и специалист по новым технологиям.
Несмотря на отсутствие регулирования, у Европейского Союза есть очень четкий, хотя и не полностью законодательный подход к проектированию и использованию систем искусственного интеллекта. В июне появился еще один проект регламента 2021 года по ИИ. В его положениях четко указаны правила, которые должны применяться. Это не только технологии, но и этика, доверие или ответственность, - считает эксперт.
Он разъясняет, что, следуя этому руководству, он должен, по крайней мере, информировать получателя, который является автором такого материала, и объяснить, что он был создан системой.
- Существует также необходимость в соответствующей маркировке. И хотя проект предполагает некоторые исключения, например, для свободы выражения или сатиры, предел пока не ясен.
Вопрос места также рассматривается призмой правил защиты изображения, которое может быть частью голоса. Однако в нем указывается, что закон позволяет распространять его без согласия соответствующего лица, например политики.
- Однако существуют сомнения относительно того, следует ли приписывать публичному лицу высказывание конкретных слов, если нет абсолютной определенности. И даже когда это их предполагаемый автор и они исходят из достоверных источников - здесь тоже границы будут создаваться судебной практикой и доктриной, - объясняет юрисконсульт. По его мнению, в этом случае также должно появиться, что материал был сгенерирован.
Поэтому представляется, что наиболее важным является согласование с адресатами представленного контента.
Законодательство ЕС также указывает на легитимность хороших этических практик и кодексов, хотя они не всегда могут дать желаемые результаты из-за их субъективизма и добровольности.
И это указывает прежде всего на принцип прозрачности, то есть, на практике, информирования нас, как получателей, с которыми мы на самом деле имеем дело.