W erze postępującej technologii, fenomen deepfake staje się coraz bardziej palącym wyzwaniem dla systemów prawnych na całym świecie. Deepfake to technika tworzenia manipulacji multimediów, wykorzystująca sztuczną inteligencję do generowania realistycznych, lecz fałszywych treści wizualnych i dźwiękowych. Zazwyczaj są to krótkie filmy, na których pokazana jest znana postać, mówiąca ewidentnie własnym, znanym nam głosem, ale całość materiały jest wygenerowana przez specjalne programy. W miarę rozwoju tej technologii pojawiają się ważne pytania dotyczące odpowiedzialności prawnej za tego rodzaju manipulacje. Artykuł ten skupi się na analizie prawnych aspektów deepfake oraz wyzwań związanych z ustalaniem odpowiedzialności za tego rodzaju działania.
Zaznaczmy, że tym artykułem wkraczamy jeszcze w obszar, który można nazwać „dzikiem zachodem polskiego prawa”. Na ten moment kodyfikacje znajdujące się w polskim prawie nie odnoszą się bezpośrednio do zjawiska deepfake, w związku z czym musimy się posiłkować w dużej mierze na już istniejących regulacjach znajdujących się w obowiązujących ustawach. Spróbujemy więc odpowiedzieć sobie na pytanie, czy jesteśmy obecnie bezradni, czy też mamy jakieś możliwości ochronny swoich praw w relacji do agresywnego wykorzystywania AI.
Pierwszym problemem, z którym możemy się zmierzyć, jest w ogóle wskazanie, w jaki sposób może dojść do naruszenia naszych praw przez deepfake. W tym artykule posłużymy się kilkoma przykładami, chociaż rzeczywisty zakres potencjalnych naruszeń jest nieograniczony.
Tak wiec, przykładami, które mogą stanowić flagowe przykłady wykorzystania deefake w niecnych celach będą:
Stworzenie montażu z wizerunkiem naszej osoby, który stawia nas w niekorzystnym świetle;
Szerzenie dezinformacji;
Próba doprowadzenia do niekorzystnego rozporządzenia mieniem.
Kluczowym zagadnieniem jest kwestia ochrony prywatności. Deepfake pozwala na realistyczne manipulacje twarzami osób na istniejących nagraniach wideo, co może prowadzić do poważnych naruszeń prywatności jednostek. W wielu krajach, istniejące przepisy dotyczące naruszeń prywatności nie są wystarczające, by skutecznie penalizować twórców deepfake. Konieczne jest zatem dostosowanie prawa w celu uwzględnienia specyficznych zagrożeń wynikających z tego rodzaju manipulacji. W każdym razie – jeżeli ktoś wykona materiał typu deepfake z naszym udziałem, podstawową formą ochrony będzie wystąpienie z roszczeniem o naprawienie szkody wynikłej z takiego działania. Problemem może być to, czy działanie takie da się ścigać też na drodze karnej. Przepisem, na który można by się potencjalnie powoływać, jest ten traktujący o przestępstwie pomówienia. Z uwagi na brak jakiegokolwiek orzecznictwa, musimy się ograniczyć jedynie do gdybania, czy kiedykolwiek ta regulacja będzie mogła mieć zastosowanie w drodze analogii.
Kolejnym ważnym aspektem jest wpływ deepfake na wiarygodność informacji i możliwość wprowadzania w błąd społeczeństwa. Deepfake może być używany w celu tworzenia fałszywych informacji, które trudno odróżnić od rzeczywistych. To z kolei zagraża fundamentom społeczeństwa opartego na rzetelnej wymianie informacji. Konieczne jest zastanowienie się nad ewentualnymi sankcjami prawnymi dla osób tworzących i rozpowszechniających fałszywe informacje przy użyciu tej technologii. Tu pomocne mogą okazać się przepisy dotyczące naprawienia szkody. Jeżeli bowiem w oparciu o fałszywe informacje podejmiemy fatalne w skutkach decyzje, możliwy jest scenariusz, w którym będziemy mogli oczekiwać naprawienia ich skutków przez sprawcę, który stworzył deepfakea.
Odpowiedzialność karna to kolejny obszar wymagający uwagi. Istniejące kodyfikacje nie zawsze dostarczają odpowiednich narzędzi do skutecznego ścigania autorów deepfake. Wprowadzenie specjalnych przepisów za manipulacje multimediów byłoby krokiem w kierunku bardziej adekwatnej reakcji prawnej na to zagrożenie. Jednak równie ważne jest unikanie nadmiernej regulacji, która mogłaby ograniczyć swobodę wyrażania się i innowacyjność. Jednocześnie, przynajmniej w jednym z przypadków, posiadamy narzędzie w postaci przepisu prawa karnego, który może posłużyć w celu zachowania naszych praw. Mowa o przypadku przestępstwa oszustwa.
Ostatnimi czasu, bardzo często można trafić na materiały wyświetlające się w formie reklam na Facebooku czy Youtube, w których widzimy czołowych przedstawicieli polskiej polityki, polskich celebrytów czy sportowców, którzy zachwalają jakąś „inwestycję”, która oczywiście „jest w pełni bezpieczna” oraz, częstokroć „podlega ochronie rządowej”. Przerażająca jest ilość komentarzy pod takimi filmami, wystawionymi przez osoby, które są święcie przekonane o autentyczności takich nagrań.
Jeżeli jakaś osoba zawierzy treści takiego nagrania, i dokonana przez to niekorzystnego rozporządzenia mieniem, to ma możliwość skorzystania z ochrony zapewnianej przez kodeks karny, choć i w tym przypadku namierzenie sprawców może okazać się niemożliwe.
Przesłanką do odpowiedzialności prawnej za deepfake powinno być także szersze spojrzenie na skutki społeczne i emocjonalne ofiar. Manipulacje multimediów często prowadzą do poważnych konsekwencji psychologicznych dla osób, których twarze są fałszowane w treściach wideo. Odpowiedzialność prawna powinna uwzględniać aspekty zadośćuczynienia dla ofiar oraz sankcje dla sprawców.
Warto również zwrócić uwagę na wyzwania technologiczne związane z identyfikacją i ściganiem twórców deepfake. Sztuczna inteligencja używana do generowania manipulacji multimediów staje się coraz bardziej zaawansowana, co utrudnia wykrycie fałszywych treści. Systemy prawne muszą być gotowe do adaptacji i inwestycji w narzędzia umożliwiające skuteczne zwalczanie deepfake.
Podsumowując, odpowiedzialność prawna za deepfake stanowi wyzwanie, którego nie można bagatelizować. Konieczne jest dostosowanie przepisów prawnych do nowych realiów technologicznych, jednocześnie dbając o równowagę między ochroną prywatności a wolnością wyrażania się. Skuteczna walka z deepfake wymaga współpracy międzynarodowej oraz stałego monitorowania postępującej technologii w celu dostosowania reakcji prawnych do ewoluującego zagrożenia.