Definicja „deepfake” na gruncie AI Act
Definicja „deepfake” na gruncie AI Act – postęp technologiczny, szybkość przekazu i dostępność do informacji, w połączeniu z kreatywnością człowieka, to elementy, jakie przyczyniły się do powstania oraz rozwoju zjawiska, jakim jest „deepfake”. Opisując zjawisko o cechach, „deepfake” można powiedzieć „od dezinformacji do edukacji”, za sprawą tego, iż materiały stanowiące „deepfake” mogą zostać wykorzystane zarówno do celów przestępczych, jakimi są oszustwa, wyłudzenia, zniesławienia, naruszenia dóbr osobistych, stalking, fałszerstwo dokumentów[1], jak i mogą zostać wykorzystane w działalności artystycznej, edukacji, a nawet w medycynie[2]. W istocie zatem, to na podmiotach stosujących, które decydują o celach i sposobach wykorzystania materiałów o cechach „deepfake” spoczywa odpowiedzialność za przekaz informacyjny zawierający treści o cechach „deepfake” oraz sposób jego wykorzystania.
Obowiązki w zakresie przejrzystości
Obowiązki w zakresie przejrzystości dla dostawców i podmiotów stosujących niektóre „systemy AI” opisane zostały w rozdziale IV Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Tekst mający znaczenie dla EOG)[3], [dalej AI Act]. Zanim jednak o ww. obowiązkach, zacząć należy od analizy zakresu znaczeniowego pojęcia „deepfake” na gruncie AI Act. Nie da się bowiem zastosować przepisów rozdziału IV AI Act w praktyce, bez precyzyjnego określenia, czym jest, kiedy mamy do czynienia z „deepfake” na gruncie AI Act. Prawidłowe posługiwanie się ww. pojęciem, ma decydujące znaczenie dla ustalenie tego, w jakich sytuacjach podmioty stosujące określne „systemy AI” zobligowane są do realizacji prawem określonych obowiązków w zakresie przejrzystości, a tym samym, w jakich sytuacjach, ww. podmioty stosujące, nie są zobowiązane do realizacji obowiązków w zakresie przejrzystości.
Grupa 1
Cecha 1 – obrazy,
Cecha 2 – treści dźwiękowe
Cecha 3 – treści wideo
Cecha 4 – treści dźwiękowe i wideo
Grupa 2
Cecha 1 – wygenerowane przez AI
Cecha 2 – zmanipulowane przez AI
Grupa 3
Cecha 1 – które przypominają istniejące osoby,
Cecha 2 – które przypominają istniejące przedmioty,
Cecha 3 – które przypominają istniejące miejsca,
Cecha 4 – które przypominają istniejące podmioty,
Cecha 5 – które przypominają istniejące zdarzenia
Grupa 4
Cecha 1 – które odbiorca mógłby uznać niesłusznie za autentyczne,
Cecha 2 – które odbiorca mógłby uznać niesłusznie za prawdziwe
Grupa 1 / obrazy / treści dźwiękowe / treści wideo
Cechami zjawiska „deepfake” zaliczanymi do Grupy 1 są określone kategorie treści, które mogą stanowić „deepfake”. Zgodnie z brzemieniem przepisu „deepfake” mogą stanowić tylko określone w przepisie kategorie treści, które w dalszej części, nazywam łącznie „materiałami”. Zgodnie z brzemię analizowanego przepisu „deepfake” mogą stanowić:
- obrazy,
- treści dźwiękowe,
- treści wideo,
- treści dźwiękowe i treści wideo.
Katalog materiałów, jakie mogą stanowić „deepfake” ma charakter zamknięty. Nie jest istotne to, w jakiej postaci dany materiał został zapisany, co jest jego nośnikiem, nie jest istotne to, czy w ogóle został utrwalony. Istotne jest tylko to, aby w istocie rzeczy materiał był obrazem, treścią dźwiękową lub treścią wideo.
Zjawisko „deepfake” nie wystąpi w odniesieniu do kategorii treści, jaką jest „tekst”. Treści w postaci wygenerowanego lub zmanipulowanego „tekstu”, nawet wtedy, kiedy spełnione zostaną pozostałe przesłanki, o jakich mowa w przepisie, nie będą stanowiły „deepfake”. Potwierdzeniem powyższego jest brzmienie drugiego akapitu art. 50 ust. 4 AI Act. Zgodnie z art. 50 ust 4 AI Act cyt.: „Podmioty stosujące system AI, który generuje tekst publikowany w celu informowania społeczeństwa o sprawach leżących w interesie publicznym lub manipuluje takim tekstem, ujawniają, że tekst został sztucznie wygenerowany lub zmanipulowany. Obowiązek ten nie ma zastosowania, w przypadku gdy wykorzystywanie jest dozwolone na mocy prawa w celu wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców lub w przypadku gdy treści wygenerowane przez AI zostały poddane weryfikacji przez człowieka lub kontroli redakcyjnej i gdy za publikację treści odpowiedzialność redakcyjną ponosi osoba fizyczna lub prawna.”.
Grupa 2 / wygenerowane / zmanipulowane przez AI
Z „deepfake” mamy do czynienia, w sytuacji, w której materiały, o jakich mowa w przepisie zostały:
- albo wygenerowane – proces generowania oznacza, iż określone materiały, o jakich mowa w przepisie uprzednio nie istniały, a w wyniku działania zostały wygenerowane. Proces generowania, jest procesem realizowanym przez AI[4]. Z uwagi na użycie zwrotu wskazującego na proces polegający na utworzeniu, czyli wygenerowaniu określonych materiałów, przyjąć należy, iż w całości jest to proces realizowany przez AI,
- albo zmanipulowane – proces o jakim mowa w przepisie polega na zmanipulowaniu określonych materiałów, o jakich mowa w przepisie. Proces manipulowania zakłada wcześniejsze istnienie określonych materiałów, w swojej niezmanipulowanej postaci, postaci która poddana zostaje sztucznej manipulacji przez AI. Przepis nie określa stopnia, intensywności, dokonywanej przez AI manipulacji, jaka musi zaistnieć, abyśmy mieli do czynienia z materiałami zmanipulowanymi. Prowadzi to do wniosku, iż wystąpienie, jakiejkolwiek różnicy, rozbieżności pomiędzy materiałem przed poddaniem go procesowi manipulacji a po nim, stanowi o tym, iż proces zmanipulowania wystąpił. Przypadkiem granicznym jest proces, w którym stopień manipulacji jest, tak daleko posunięty, iż w rzeczywistości staje się procesem polegającym na wygenerowaniu uprzednio w ogóle nie istniejącego materiału. Manipulacja polegająca na tworzeniu nowych, nieistniejących materiałów, w gruncie rzeczy jest procesem ich generowania. Proces polegający na zmanipulowaniu, jest procesem realizowanym przez AI. Treść przepisu nakazuje przyjąć, iż proces manipulacji, jest procesem, jaki zrealizowany został przez AI, jednak odnosi się ów proces do materiałów uprzednio istniejących, jako bazowych, jako takich, które poddawane są zmanipulowaniu przez AI,
- albo wygenerowane lub zmanipulowane – z użycia funktora logicznego „lub” wynika, że proces generowania oraz proces manipulowania to procesy, jakie współwystępują, które zachodzą łącznie ze sobą, czyli są to materiały, które zostały wygenerowane oraz zmanipulowane.
Zjawisko „deepfake” nie wystąpi , kiedy materiał został wygenerowany lub zmanipulowany w całości przez człowieka. Nie oznacza to, iż za sprawą działalności człowieka nie mogą powstać obrazy lub treści, które przypominają istniejące osoby, przedmioty, miejsca, podmioty, zdarzenia. Nie oznacza to także, iż wygenerowane lub zmanipulowane przez człowieka obrazy lub treści zawsze są autentyczne lub prawdziwe, w związku z czym ich odbiorca mógłby niesłusznie uznać je za takie. Hipotetycznie na skutek działalności człowieka, może wystąpić sytuacja o cechach „deepfake”, jednak nawet w takim przypadku, twórcy nie dotyczą obowiązki w zakresie przejrzystości, jakie określone zostały na gruncie AI Act – albowiem obrazy lub treści nie został wygenerowany lub zmanipulowany przez AI, ale przez człowieka.
Grupa 3 / przypominające istniejące / osoby / przedmioty / miejsca / podmioty / zdarzenia
Z „deepfake” mamy do czynienia, w sytuacji, w której materiały, o jakich mowa w przepisie, które zostały wygenerowane lub zmanipulowane sztucznie przez AI, posiadają cechy, świadczące o tym, iż są to materiały, jakie przypominają:
- osoby, lub
- przedmioty, lub
- miejsca, lub
- podmioty, lub
Mając na uwadze, iż w przepisie mowa jest o wygenerowanych lub zmanipulowanych przez AI materiałach, przyjąć należy, iż zawsze będą to materiały, które albo przypominają określone kategorie osób, przedmiotów, miejsc, podmiotów lub zdarzeń, albo nie przypominają określonych kategorie osób, przedmiotów, miejsc, podmiotów lub zdarzeń, co ma miejsce zarówno w sytuacji, kiedy nie posiadają cech, które pozwalają na uznanie, ich za przypominające, jak i kiedy nie istnieją, nie istniały osoby, przedmioty, miejsca, podmioty lub zdarzenia, które mogłyby przypominać, do których mogłyby być podobne materiały.
Dla uznania sztucznie wygenerowanych lub zmanipulowanych materiałów za „deepfake” nie wystarczy, aby były to obrazy, treści dźwiękowe lub treści wideo, które jedynie przypominają osobę, przedmiot, miejsce, podmiot lub zdarzenie. Muszą to być materiały, jakie przypominają:
- istniejącą osobę, lub
- istniejący przedmiot, lub
- istniejące miejsce, lub
- istniejący podmiot, lub
- istniejące zdarzenie.
W przepisie mowa jest o:
- istniejących osobach, bez doprecyzowania, czy chodzi o osoby fizyczne, czy osoby prawne, czy może ułomne osoby prawne. Z uwagi jednak na to, iż w dalszej części przepisu ustawodawca wskazuje także na „podmioty”, przyjąć należy, iż jeśli mówi o osobach, to mówi o osobach w rozumieniu osoby fizycznej. Ponadto należy przyjąć, iż bez znaczenia jest to, czy osoba, o jakiej mowa w przepisie, w rozumieniu „istniejąca osoba”, jest istotą ludzką, która żyje, czy też żyła, ale już zmarła,
- istniejących przedmiotach, bez doprecyzowania, czy chodzi o rzeczy ruchome, czy rzeczy nieruchome. Należy, przyjąć iż jeśli przepis mówi o przedmiotach, to należy rozumieć to, jako rzeczy zarówno ruchome, jak i nieruchome, przedmioty w każdym tego słowa znaczeniu. Ponadto należy przyjąć, iż bez znaczenia jest to, czy przedmiot, w rozumieniu „istniejący przedmiot”, jest w istocie przedmiotem, który w danym momencie istnieje rzeczywiści, czy też istniał, ale już go nie ma,
- istniejących miejscach, należy przyjąć, iż bez znaczenia jest to, czy miejsca, o jakich mowa w przepisie, to w istocie miejsca, które w danym momencie istnieją, czy też istniały, ale już ich nie ma,
- istniejących podmiotach, należy przyjąć, iż bez znaczenia jest to, czy podmioty, to w istocie podmioty, które w danym momencie istnieją, czy też istniały, ale już ich nie ma.
- istniejących zdarzeniach, należy przyjąć, iż bez znaczenia jest to, czy zdarzenia, to w istocie zdarzenia, które w danym momencie mają miejsce, czy też wystąpiły wcześniej,
- z użycia funktora logicznego „lub” oraz posłużenia się znakiem interpunkcyjnym, jakim jest przecinek oddzielający wyrazy „osoby”, „przedmioty”, „miejsca”, „podmioty lub zdarzenia”, wynika iż materiały, o jakich mowa w przepisie, mogą być materiałami, które treścią swoją odnoszą się co najmniej do dwóch, a maksymalnie do wszystkich ww. istniejących kategorii łącznie.
Zatem materiały, o jakich mowa w przepisie, oprócz tego, że nie są autentyczne lub prawdziwe, dodatkowo muszą posiadać jeszcze jedną cechę, a mianowicie, muszą to być materiały, które „przypominają” istniejące osoby, przedmioty miejsca, podmioty lub zdarzenia, które jako sztucznie wygenerowane lub sztucznie zmanipulowane same przedstawiają lub prezentują. Patrząc do motywu (134) AI Act odszukać można dodatkową cechę, jaka odnosi się do przedstawionego zjawiska „przypominania istniejących” osób, przedmiotów miejsc, podmiotów lub zdarzeń. Z treści wskazanego motywu wynika, iż obowiązki w zakresie przejrzystości, odnoszą się do materiałów stanowiących treści „deepfake”, jako do materiałów, które „łudząco przypominają” istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia. Uznaję jednak, iż dla dokonania kompleksowej oceny pamiętać należy o kolejnej kategorii warunków, jakie musza zostać spełnione, abyśmy mogli mówić o treści z kategorii „deepfake”. Mianowicie mowa tutaj o skutku, jakim jest możliwość uznania materiału za autentyczny lub prawdziwy przez odbiorcę. Konsekwencją tego, jest iż w sytuacji, kiedy dany materiał nie jest łudząco przypominający, a jedynie przypominający istniejącą osobę, przedmiot, miejsce, podmiot, lub zdarzenie, a jednocześnie może zostać uznany za autentyczny lub prawdziwy, jako przedstawiający prezentujący istniejącą osobę, przedmiot, miejsce, podmiot lub zdarzenie, mamy do czynienia z treściami z kategorii „deepfake”. Prawdopodobieństwo wystąpienia takiego skutku, czyli uznania materiału za autentyczny lub prawdziwy istotnie wzrasta w sytuacji, jeśli mamy do czynienia z „łudzącym przypominaniem”. Nie oznacza to jednak, iż w sytuacji, w której materiał nie przypomina łudząco istniejącej osoby, przedmiotu miejsca, podmiotu lub zdarzenia, zjawisko „deepfake” nie zachodzi.
Zgodnie z motywem (134) AI Act cyt.: „Oprócz rozwiązań technicznych wykorzystywanych przez dostawców systemu AI, podmioty stosujące, które wykorzystują system AI do generowania obrazów, treści dźwiękowych lub wideo lub manipulowania nimi, tak by łudząco przypominały istniejące osoby, przedmioty. Miejsca, podmioty lub wydarzenia i które to treści mogą niesłusznie zostać uznane przez odbiorcę za autentyczne lub prawdziwe („deepfake”), powinny również jasno i wyraźnie ujawnić – poprzez odpowiednie oznakowanie wyniku AI i ujawnienie, że źródłem jest AI – że treści te zostały sztucznie wygenerowane lub zmanipulowane. Spełnienie obowiązku w zakresie przejrzystości nie powinno być interpretowane jako wskazujące na to, że wykorzystanie systemu AI lub jego wyników ogranicza prawo do wolności wypowiedzi i prawo do wolności sztuki i nauki zagwarantowane w Karcie, w szczególności w przypadku, gdy treści te stanowią część dzieła lub programu mającego wyraźnie charakter twórczy, satyryczny, artystyczny fikcyjny lub analogiczny, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich. W takich przypadkach określony w niniejszym rozporządzeniu obowiązek w zakresie przejrzystości dotyczący treści typu deepfake ogranicza się do ujawniania informacji o istnieniu takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania utworu lub korzystania z niego, w tym jego normalnego wykorzystania i użytkowania, przy jednoczesnym zachowaniu użyteczności i jakości utworu. Ponadto należy również przewidzieć podobny obowiązek ujawniania w odniesieniu do tekstu wygenerowanego przez AI lub zmanipulowanego przez AI w zakresie, w jakim jest on publikowany w celu informowania opinii publicznej o sprawach leżących w interesie publicznym, chyba że treści wygenerowane przez AI zostały poddane procesowi weryfikacji przez człowieka lub kontroli redakcyjnej, a osoba fizyczna lub prawna ponosi odpowiedzialność redakcyjną za publikację treści.”
Zjawisko „deepfake” nie wystąpi, w której materiały sztucznie wygenerowane lub zmanipulowane przez AI są materiałami przypominającymi istniejące zwierzęta, nawet jeśli mogą być uznane przez odbiorcę za autentyczne lub prawdziwe.
Grupa 4 / możliwość niesłusznego uznania materiałów za autentyczne / prawdziwe przez ich odbiorcę
Z „deepfake” mamy do czynienia, w sytuacji, w której materiały, o jakich mowa w przepisie, które zostały wygenerowane lub zmanipulowane sztucznie przez AI, będące materiałami, jakie przypominają istniejące osoby, przedmioty, miejsca podmioty lub zdarzenia, mogą zostać:
- niesłusznie uznane przez odbiorcę za autentyczne, lub
- niesłusznie uznane przez odbiorcę za prawdziwe.
W przepisie mowa jest o odbiorcy. Odbiorca nie został zdefiniowany, na gruncie AI Act, jednak przyjąć należy, iż w przepisie mowa jest o każdej osobie w modelowym tego słowa znaczeniu, jako o osobie, która może stać się adresatem materiałów sztucznie wygenerowanych lub zmanipulowanych przez AI. De facto każda osoba, która zapozna się z materiałami, staje się ich odbiorcą, co oznacza, iż możliwość uznania ich za autentyczne lub prawdziwe to możliwość, jaka występuje w związku z tym, iż materiały trafiają do odbiorcy, ktokolwiek nim jest. Jeśli możliwość uznania za autentyczne lub prawdziwe określonych w przepisie materiałów, nie występuje w odniesieniu do danej kategorii odbiorców, ale jednocześnie występuje w odniesieniu do innej kategorii odbiorców, mamy do czynienia ze zjawiskiem „deepfake”. Nie jest istotna liczebność grupy odbiorców, istotne jest to czy owa możliwość może wystąpić, czy też wystąpić nie może.
W przepisie mowa jest o możliwości uznania materiałów za autentyczne lub prawdziwe. Możliwość, o jakiej mowa w przepisie, sprowadza się do tego, iż oceniane jest to, czy zachodzi prawdopodobieństwo, bez określenia jego stopnia, aby odbiorca sztucznie wygenerowanych lub zmanipulowanych materiałów przez AI:
- uznał te materiały za materiały autentyczne. Nie jest istotne z punktu widzenia treści przepisy, czy odbiorca finalnie uzna, materiały za autentyczne, istotne jest już to, czy zachodzi takie prawdopodobieństwo, iż materiały, o jakach mowa w przepisie mogą zostać uznane przez odbiorcę za autentyczne – w sytuacji w której materiały te nie są autentyczne. Jeśli materiały mogą zostać uznane za autentyczne przez odbiorcę, przy spełnieniu pozostałych przesłanek będziemy mieli do czynienia z „deepfake”,
- uznał te materiały za materiały prawdziwe. Nie jest istotne z punktu widzenia treści przepisy, czy odbiorca finalnie uzna, materiały za prawdziwe, istotne jest już to, czy zachodzi takie prawdopodobieństwo, iż materiały, o jakach mowa w przepisie mogą zostać uznane przez odbiorcę za prawdziwe – w sytuacji w której materiały te nie są prawdziwe. Jeśli materiały mogą zostać uznane za prawdziwe przez odbiorcę, przy spełnieniu pozostałych przesłanek będziemy mieli do czynienia z „deepfake”,
- uznał te materiały za materiały autentyczne i prawdziwe. Nie jest istotne z punktu widzenia treści przepisy, czy odbiorca finalnie uzna, materiały za autentyczne i prawdziwe, istotne jest już to, czy zachodzi takie prawdopodobieństwo, iż materiały, o jakach mowa w przepisie mogą zostać uznane przez odbiorcę za autentyczne i prawdziwe – w sytuacji w której materiały te nie są ani autentyczne ani prawdziwe. Jeśli materiały mogą zostać uznane za autentyczne i prawdziwe przez odbiorcę, przy spełnieniu pozostałych przesłanek będziemy mieli do czynienia z „deepfake”.
Skoro w przepisie mowa jest o możliwości niesłusznego uznania materiałów za autentyczne lub prawdziwe, należy przyjąć, iż materiały, sztucznie wygenerowane lub zmanipulowane przez AI, są materiałami, które:
- nie są autentyczne – nie mogą być autentyczne, lub
- nie są prawdziwe – nie mogą być prawdziwe, lub
- nie są ani autentyczne i nie są prawdziwe – nie mogą być ani autentyczne ani prawdziwe.
To że określone materiały nie są autentyczne lub nie są prawdziwe, nie oznacza, iż one nie istnieją. Nie są autentyczne lub nie są prawdziwe oznacza tyle, iż sztucznie zostały wygenerowane przez AI lub sztucznie zostały zmanipulowane przez AI i są jednocześnie, jako obrazy, treści dźwiękowe lub treści wideo, jedynie podobne, a nawet łudząco podobne, do autentycznych lub prawdziwych obrazów jakie przedstawiają, treści dźwiękowych lub treści wideo, jakie prezentują. Potwierdzeniem tego, iż w przepisie mowa jest o materiałach które nie są autentyczne lub nie są prawdziwe, jest także to, iż w rzeczywistości nie ma możliwości, aby niesłusznie, czyli błędnie uznać za autentyczny lub prawdziwy materiał, który w istocie rzeczy jest takim autentycznym lub prawdziwym materiałem.
Rzetelność prowadzonego wywodu prowadzi mnie w kierunku, jeszcze jednego założenia, nad którym należy się pochylić. Założenia zgodnie z którym, nie stanowią „deepfake” sztucznie wygenerowane przez AI lub zmanipulowanych przez AI, materiały, które:
- są autentyczne, lub
- są prawdziwe, lub
- są autentyczne i prawdziwe.
Aby zając stanowisko, należy udzielić odpowiedzi na rodzące się pytania o to:
- Czy sztucznie wygenerowane lub zmanipulowane przez AI obrazy, w ogóle mogą być autentyczne lub prawdziwe? Nie uznane za autentyczne lub prawdziwe, kiedy nimi nie są, ale obiektywnie, czy mogą być obrazami, jakie są autentyczne lub prawdziwe? Powstaje pytanie o to, kiedy taki wygenerowany lub zmanipulowany przez AI obraz jest autentyczny lub prawdziwy? Czy jeśli obraz sztucznie wygenerowany lub zmanipulowany przez AI przedstawia istniejącą osobę, istniejący przedmioty, istniejące miejsce, istniejący podmioty lub istniejące zdarzenia, to wówczas jest obrazem autentycznym lub prawdziwym?
- Czy sztucznie wygenerowane lub zmanipulowane przez AI treści dźwiękowe, w ogóle mogą być autentyczne lub prawdziwe,? Nie uznane za autentyczne lub prawdziwe, kiedy nimi nie są, ale obiektywnie, czy mogą być treściami dźwiękowymi, jakie są autentyczne lub prawdziwe? Powstaje pytanie o to, kiedy taki wygenerowany lub zmanipulowany przez AI treści dźwiękowe są autentyczne lub prawdziwe? Czy jeśli treści dźwiękowe sztucznie wygenerowany lub zmanipulowany przez AI są treściami dźwiękowymi istniejącej osoby, istniejącego przedmiotu, istniejącego miejsca, istniejącego podmiotu lub istniejącego zdarzenia, to wówczas są treściami dźwiękowymi autentycznymi lub prawdziwymi?
- Czy sztucznie wygenerowane lub zmanipulowane przez AI treści wideo, w ogóle mogą być autentyczne lub prawdziwe? Nie uznane za autentyczne lub prawdziwe, kiedy nimi nie są, ale obiektywnie, czy mogą być treściami wideo, jakie są autentyczne lub prawdziwe? Powstaje pytanie o to, kiedy taki wygenerowany lub zmanipulowany przez AI treści wideo są autentyczne lub prawdziwe? Czy jeśli treści wideo sztucznie wygenerowany lub zmanipulowany przez AI są treściami wideo przedstawiającymi istniejącej osoby, istniejącego przedmiotu, istniejącego miejsca, istniejącego podmiotu lub istniejącego zdarzenia, to wówczas są treściami wideo autentycznymi lub prawdziwymi?
Przyjmując hipotetycznie, iż obrazy lub treści dźwiękowe lub treści wideo, które są materiałami, jakie zostały sztucznie wygenerowane lub zmanipulowane przez AI, w sytuacji, kiedy co najmniej przypominają istniejącą osobę, lub istniejący przedmiot lub istniejące miejsce lub istniejący podmiot lub istniejące zdarzenie – są autentyczne lub prawdziwe, bez względu na to, czy za takie mogą być lub nie mogą być uznane, nie stanowiłyby wówczas „deepfake”, w rozumieniu AI Act. Idąc dalej, takie materiały, nie będą stanowiły „deepfake” nawet wówczas, kiedy ich odbiorca, niesłusznie uzna je za nieautentyczne lub nieprawdziwe. Sytuacja „deepfake odwróconego”, jest w rzeczywistości tylko wyrazem błędnego ustalenia dokonanego przez odbiorcę i nie skutkuje na gruncie AI-Act konsekwencjami, jakie niesie za sobą wystąpienie sytuacji, w której mamy do czynienia z „deepfake”.
Założenie wyżej opisane odrzucam i przyjmuję, iż obrazy lub treści dźwiękowe lub treści wideo, które są materiałami, jakie zostały sztucznie wygenerowane lub zmanipulowane przez AI – nie są autentyczne lub prawdziwe – nawet jeśli przypominają, a nawet łudząco przypominają, istniejącą osobę, lub istniejący przedmiot lub istniejące miejsce lub istniejący podmiot lub istniejące zdarzenie – z uwagi nato, iż zostały sztucznie wygenerowane lub zmanipulowane przez AI. Fakt, iż realnie, rzeczywiście istnieją, jako nośniki informacji, nie zmienia tego stanu rzeczy. Nośnik informacji, bowiem może być autentyczny lub prawdziwy, nawet jeśli został wygenerowany lub zmanipulowany przez AI, dla zjawiska „deepfake”, o jakim mowa w AI Act, nie to jest istotne.
Zjawisko „deepfake” nie wystąpi w odniesieniu do materiałów, które zostały sztucznie wygenerowane przez AI lub sztucznie zmanipulowane przez AI, jako materiały które nie przedstawiają, nie prezentują istniejących osób, przedmiotów, miejsc, podmiotów lub zdarzeń, nawet wtedy, kiedy są wykorzystywane przez podmioty stosujące z zamiarem wywołania u odbiorcy przekonania, iż są to materiały autentyczne lub prawdziwe, jako prezentujące przedstawiające istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia. Podmioty stosujące decydując się na posługiwanie się AI do generowania, czy manipulowania materiałów, powinny zachować daleko idącą ostrożność w uznawaniu, tak powstałych materiałów, za treści, które nie są „deepfake” a zatem, za treści co do których nie zachodzą obowiązki, o jakich mowa w art. 50 ust. 4 AI Act. Materiał bowiem prezentujący dla przykładu nieistniejącą osobę, z zamiarem posłużenia się nim, w celu wywołania u odbiorcy przekonania o istnieniu tej zaprezentowanej osoby, powinien zostać oceniony pod kątem tego, czy aby nie zawiera on jednak innych elementów, które są elementami podobnymi do istniejących innych niż główna postać osób, przedmiotów, miejsc, podmiotów lub zdarzeń, a w związku z tym, należałoby je uznać za treści „deepfake” ze wszelkimi tego konsekwencjami.
Obowiązki podmiotów stosujacych w zakresie przejrzystości

Nie można pomijać zakresu znaczeniowego definicji „deepfake”, jaką określają przepisy AI Act. Nie można również zmieniać tego znaczenia, poprzez przypisywanie mu cech, jakie nie zostały wskazane w przepisie, bądź ich niedostrzeganie, chociażby w części.
[1] https://adwokatmdp.pl/odpowiedzialnosc-karna-za-przestepstwa-z-uzyciem-technologii-deepfake/ [Dostęp: 11.04.2025r., godz.: 8:40]
[2] https://cert.pl/posts/2024/09/deepfake-definicja/ [Dostep: 11.04.2025r., godz.: 9:00]
[3] https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX%3A32024R1689 [Dostęp dnia 2.04.2025r., godz.: 7:54]
[4] Na gruncie AI Act ustawodawca europejski posługuję się zarówno pojęciem „AI:, jak i pojęciem „system AI”, z uwagi na zakaz wykładni synonimicznej, nie należy tym pojęciom przypisywać tożsamego zakresu znaczeniowego, tym bardziej, iż pojęcie „system AI” zostało wprost zdefiniowane w art. 4 pkt 3 AI Act. Konsekwencją powyższego, jest przyjęcie, iż materiały wygenerowane przez „AI” to materiały, jakie wygenerowane zostały przy wykorzystaniu „systemu AI”, który posiada cechy „AI”, czyli sztucznej inteligencji.