Tytuł: AI nielegalnie kopiuje głosy. Ty też możesz usłyszeć swój w reklamie szamba
Autor: Marcel Wandas
Źródło: https://oko.press/ai-kradziez-glosu-lukomski
Data publikacji: 21.02.2026
Jego znajomi myśleli, że reklamuje szamba i ze zdziwieniem podesłali mu link.
Trudno pomylić ten głos. Choć w tym przypadku był nieco nienaturalny i robotyczny, to jednak odpowiadał w stu procentach barwą jednemu z najbardziej rozpoznawalnych lektorów w Polsce. Kojarzy go pewnie każdy, kto przez ostatnich 30 lat od czasu do czasu włączał telewizor. To on czyta dialogi wszystkich części „Szklanej Pułapki”, „Szeregowca Ryana” czy w superbohaterskich hitach Marvela. Do tej pory nie zachęcał jednak do założenia przydomowej oczyszczalni ścieków.
Głos identyczny – ale sztuczny
„Pomyślałem, że to są słowa wypowiedziane moim głosem, ale nie wypowiadane przeze mnie” – mówił Jarosław Łukomski przed sądem. Lektor i jego prawnicy twierdzą, że padł ofiarą kradzieży głosu, a zewnętrzna firma bezprawnie wykorzystała próbki jego dialogów, by wytrenować swój „automat” sztucznej inteligencji, który wypowiedział tekst użyty w klipie. [...]
Lektor kontra AI, czyli precedens
„Tu i teraz jest moja sprawa, ale chodzi też o to, co może spotkać inne osoby ze środowiska w przyszłości” – mówił Łukomski. Jego sprawa jest precedensowa. Do tej pory w Polsce nikt w takiej sytuacji nie wszedł na drogę sądową, choć na takie przypadki narażeni mogą być wszyscy użytkownicy platform społecznościowych. Chodzi zarówno o głosowe, jak i wizualne fałszywki. „Problem dotyczy każdej osoby, której wizerunek lub głos można pozyskać. Należy jednak mocno pokreślić, że aktualnie nie obserwuje się interaktywnych ataków ze sklonowanym cudzym głosem lub wizerunkiem” – mówią nam eksperci z portalu Niebezpiecznik.pl.
[...] „Teoretycznie nie mamy do czynienia z głosem lektora, jest to jego syntetyczna wersja, natomiast faktycznie słyszymy jego głos. Technologia komplikuje sprawę i nadaje jej wyjątkowości. Według naszej wiedzy w Polsce nie było wcześniej takiego przypadku, zwykle sprawy dotyczyły materiałów deepfake wykorzystujących wizerunek raczej niż głos, w tym np. treści pornograficznych” – mówi w rozmowie z OKO.press Wiktoria Stasiewicz, prawniczka reprezentująca Łukomskiego.
Jesteś w internecie, licz się z problemami?
„Rezultat jest jednoznaczny: ten sztuczny głos można zidentyfikować jako głos pana Łukomskiego, a on nie wyrażał zgody na jego wykorzystanie. Jego barwa jest powszechnie znana, więc odbiorcy materiałów reklamowych są wprowadzani w błąd. Na podstawie naszych rozmów z ekspertami firmy Mikrofonika, z którą współpracuje pan Łukomski, możemy powiedzieć, że nie da się uzyskać tak podobnego do oryginału głosu bez korzystania z próbek »oryginału«. To w naszej ocenie żerowanie na renomie znanego głosu celem osiągnięcia finansowego zysku” – wyjaśnia Stasiewicz.
W komentarzach do sprawy czasem słychać, że przecież nie ma co się dziwić: w końcu w internecie takie rzeczy mają prawo się zdarzyć, nic nie jest tam do końca naszą własnością.
To błędne rozumowanie – przekonuje mecenas Tomasz Ejtminowicz, również zajmujący się sprawą kradzieży głosu.
„Argumentacja mówiąca o tym, że w internecie wszystko jest darmowe i nic nas w nim nie chroni, jest zupełnie niedostosowana do obecnych realiów. A jeśli rzeczywiście strona pozwana nie miała świadomości, jaki głos wykorzystuje, i że nie został on wykorzystany w konkretnej bazie w legalny sposób, to możemy mówić o rażącym zaniedbaniu. To, czy firma wiedziała o tym, jaki głos wykorzystuje, ma też drugorzędne znaczenie. Wyobraźmy sobie, że wykorzystujemy w reklamie obraz wygenerowany przez AI, łudząco podobny do wizerunku konkretnego pana Kowalskiego. Pan Kowalski zobaczył swoją twarz w reklamie i w ten sposób zostało naruszone prawo do ochrony jego wizerunku, nawet jeśli nie było to wykorzystanie intencjonalnie” – mówi nam Tomasz Ejtminowicz. [...]
Potrzebujemy RODO, tylko dla AI
[...] „Istotne jest oczywiście tworzenie pewnych regulacji systemowych, mówiących o kulturze prawnej obowiązującej w całym społeczeństwie. Czyli tak jak RODO tworzy pewien system ochrony danych osobowych, tak również przepisy AI powinny tworzyć system ochrony, system regulowania tego, w jaki sposób treści AI mają funkcjonować w społeczeństwie. To jest praca na najbliższą przyszłość” – mówi nam mec. Wiktoria Stasiewicz. [...]
Co z AI Act?
[...] Internetowi twórcy i znane osobistości z nadzieją mogą patrzeć na unijny AI Act – zbiór przepisów, które wpływają również na sposób ochrony danych osobowych. Znajdują się w nich również zapisy o kradzieży tożsamości.
[...] Unijne przepisy zostały zaakceptowane przez państwa członkowskie w 2024 roku. Wciąż jednak czekamy na ostateczny projekt polskiej ustawy o sztucznej inteligencji, który łapie opóźnienie.
Cały artykuł znajdziecie na portalu OKO.press.
Brak komentarzy