Ten blog korzysta z plików cookies na zasadach określonych tutaj
Zamknij
B+R (R&D)
09.12.2020

Krok bliżej w stronę ram prawnych sztucznej inteligencji – Rezolucje Parlamentu Europejskiego z dnia 20 października 2020 r.

Wstęp

Sztuczna inteligencja (SI) otacza nas z każdej strony: od telefonów komórkowych, przez wszelkiego rodzaju usługi on-line aż po autonomiczne samochody. SI i produkty w nią wyposażane mają liczne grono zwolenników, ale również osób uważniej, czasem z niepokojem przyglądającym się tworzonym rozwiązaniom. Trudno się dziwić, kiedy to docierają do nas informacje na temat kolejnego wypadku spowodowanego przez autopilota lub też chatbotów rozpowszechniających treści stanowiące mowę nienawiści. Temat zasad odpowiedzialności za tworzenie sztucznej inteligencji (wyposażanie SI w określone funkcje i dawanie jej odpowiednich możliwości uczenia), ale także za funkcjonowanie sztucznej odpowiedzialności, jest od dawna obecny nie tylko w dyskusjach prawników, ale także szczególnie żywy wśród opinii publicznej. Dylematów i aspektów wymagających uwzględnienia jest istotnie dużo. Tym bardziej z aprobatą należy przyjąć informacje na temat kolejnych kroków w stronę uregulowania zagadnień dotyczących SI. Przyczynkiem dla przyszłych aktów prawnych, które będą dotyczyły problemów narosłych wokół odpowiedzialności związanej z działaniem sztucznej inteligencji są trzy rezolucje przyjęte przez Parlament Europejski (PE):

  1. Rezolucja z dnia 20 października 2020 r. zawierająca zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL));
  2. Rezolucja z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL));
  3. Rezolucja z dnia 20 października 2020 r. w sprawie praw własności intelektualnej w dziedzinie rozwoju technologii sztucznej inteligencji (2020/2015(INI)).

Jak wynika z powyższego zestawienia wskazane wyżej rezolucje dotyczą trzech aspektów: aspektów etycznych SI, odpowiedzialności cywilnej za SI, praw własności intelektualnej a SI. Poniższy wpis, zgodnie z tematyką rezolucji, zostanie podzielony na trzy części i będzie stanowił wybór ciekawszych zagadnień.

Etyka SI

Zgodnie z rezolucją w sprawie ram aspektów etycznych sztucznej inteligencji[1] wszelkie działania ustawodawcze w odniesieniu do sztucznej inteligencji, robotyki i powiązanych technologii powinny być zgodne z zasadami konieczności i proporcjonalności, by umożliwić przedsiębiorstwom wprowadzać na rynek innowacyjne produkty. Co istotne, w związku z tym, że rozwiązania oparte na SI wymagają dostępu do olbrzymiej ilości danych, PE aprobuje wniosek Komisji dotyczący utworzenia wspólnej przestrzeni danych, co będzie gwarantować poszanowanie przepisów o ochronie danych osobowych. Samo opracowywanie i wdrażanie SI musi zawsze odbywać się z poszanowaniem zasad etyki i uwzględnianiem przewodniej roli człowieka i demokratycznego nadzoru.

PE w Rezolucji podkreśla, że należy wyodrębnić SI obarczone wysokim ryzykiem (np. poprzez uznanie, że w związku z korzystaniem z danej technologii istnieje znaczne ryzyko spowodowania obrażeń ciała lub szkody dla osób fizycznych). Ocena ryzyka powinna odbywać się na podstawie wyczerpującego i skumulowanego wykazu sektorów wysokiego ryzyka oraz zastosowań i celów wysokiego ryzyka.

W treści rezolucji możemy odnaleźć podział na sektory, które są istotne z perspektywy jej tematyki. I tak PE wskazuje, że prawo konsumentów do informacji jest jednym z kluczowych praw w UE i w związku z tym powinno ono również znaleźć zastosowanie do SI (w szczególności powinno ono obejmować przejrzystość interakcji z systemami SI oraz sposobów ich funkcjonowania). W innym podkreślono również, że SI ma potencjał do tworzenia i wzmacniania nierównego traktowania, jak również tworzenia form zautomatyzowanej dyskryminacji. W związku z tym każda osoba fizyczna lub prawna powinna mieć prawo do dochodzenia roszczeń w związku z decyzją podjętą przez sztuczną inteligencję.

Jedną z najbardziej istotnych kwestii jest fragment poświęcony prywatności i biometrii. Oczywiście, szczególną uwagę zwraca się na to, by przetwarzanie danych z wykorzystaniem SI było zgodne z RODO. Odnajdziemy tutaj również wskazówki dla podmiotów z sektora publicznego, np. instytucje publiczne korzystające z technologii zdalnego rozpoznawania (np. rozpoznawanie twarzy) powinny ten fakt ujawniać, a ich użycie powinno być zawsze proporcjonalne, ukierunkowane i ograniczone do konkretnych celów, ograniczone w czasie i przeprowadzane zgodnie z prawem Unii.

Równie ważnym zagadnieniem, o którym jest mowa na kartach Rezolucji, jest zaproponowanie europejskiego systemu certyfikacji z zasadami etycznymi. Miałby być uzyskiwany na wniosek dowolnego podmiotu opracowującego, wdrażającego lub wykorzystującego technologie nieuznawane za charakteryzujące się wysokim ryzykiem, który chciałby uzyskać poświadczenie pozytywnej oceny zgodności przeprowadzonej przez odpowiedni krajowy organ nadzoru. Tego typu certyfikat, zdaniem PE, miałby zachęcać do uwzględniania etyki na etapie projektowania w całym łańcuchu dostaw ekosystemów sztucznej inteligencji.

Odpowiedzialność cywilna SI

W rezolucji w sprawie odpowiedzialności cywilnej za sztuczną inteligencję[2] podkreślono, że obecnie jedną z najważniejszych kwestii w działaniach politycznych jest implementowanie systemów SI w społeczeństwie, miejscu pracy i gospodarce. Tak szerokie ujęcie tego tematu wskazuje tylko na to, że im szerzej sztuczna inteligencja będzie nas otaczać, tym bardziej konieczne jest uregulowanie odpowiedzialności cywilnej za szkody przez nią wywołane. W Rezolucji zauważa się, że „wszystkie działania fizyczne czy wirtualne opierające się na systemach SI, urządzenia czy procesy, w których korzysta się z tych systemów, mogą zasadniczo być bezpośrednią lub pośrednią przyczyną szkody, a jednocześnie są one niemal zawsze wynikiem tego, że ktoś skonstruował lub wdrożył taki system albo ingerował w niego (…)”. Co ciekawe, PE uważa, że nie jest konieczne nadawanie systemom SI osobowości prawnej (co również niejednokrotnie jest podnoszone w dyskusjach jako sposób na rozwiązanie tego zagadnienia).

Rezolucja wskazuje, że osobą odpowiedzialną za szkody wywołane przez działanie SI powinien być operator systemu SI (pojęcie to miałoby obejmować operatora front-end i back-end) z uwagi na to, że w wielu przypadkach będzie on pierwszą, możliwą do zidentyfikowania osobą kontaktową dla poszkodowanego. Rodzaj systemu SI, nad którym operator sprawuje pieczę, miałby element wskazujący na odpowiedzialność. Z tego powodu, PE sugeruje wprowadzenie surowego systemu odpowiedzialności cywilnej dla autonomicznych systemów SI, które są obarczone wysokim ryzykiem. Tego typu SI miałyby zostać w załączniku do rozporządzenia, który miałby być przeglądany co 6 miesięcy i w razie konieczności aktualizowany. Warto jest zwrócić uwagę, że w przypadku systemów SI objętych załącznikiem należałoby przyjąć odpowiedzialność na zasadzie ryzyka, zaś w pozostałych przypadkach wystarczająca jest odpowiedzialność na zasadzie winy. Z tego powodu operatorzy tego rodzaju systemów powinni posiadać ubezpieczenie od odpowiedzialności cywilnej. Niezależnie od tego, operator będzie mógł uwolnić się od odpowiedzialności na zasadzie winy, jeśli będzie w stanie udowodnić dołożenie należytej staranności. W tym celu producenci powinni mieć obowiązek wyznaczenia przedstawiciela ds. odpowiedzialności w zakresie sztucznej inteligencji na terenie UE jako punktu kontaktowego, który będzie odpowiadał na wszelkie pytania operatorów.

Warto również wspomnieć, że zaleca się, by w wyjątkowych przypadkach (np. w przypadku zaistnienia szkód zbiorowych, w których wartość będzie przewyższać kwoty maksymalne odszkodowania, które będą określone w rozporządzeniu) powstały na określony czas specjalne fundusze odszkodowawcze, które pozwolą na pokrycie szkód.

Projekt rozporządzenia, będący załącznikiem do Rezolucji, zawiera również proponowany okres przedawnienia do roszczeń z tytułu odpowiedzialności cywilnej za szkody wyrządzone przez SI o długości: 10 lat od daty powstania szkody majątkowej lub możliwej do zweryfikowania straty ekonomicznej wynikającej z poważnej szkody niematerialnej albo 30 lat od daty przeprowadzenia operacji z wykorzystaniem systemu sztucznej inteligencji obarczonego wysokim ryzykiem, która doprowadziła do zniszczenia własności poszkodowanego lub do poważnej szkody niematerialnej.

Prawo własności intelektualnej a SI

W rezolucji w sprawie praw własności intelektualnej w dziedzinie rozwoju technologii sztucznej inteligencji[3], PE zwraca uwagę, że  znaczny postęp w rozwoju SI może rodzić poważne problemy, np. w postaci utrudnienia odróżnienia przedmiotów praw własności intelektualnej wytworzonych przez człowieka od tych stworzonych przez SI, co w konsekwencji uniemożliwia godziwe wynagradzanie „twórców-ludzi”, których oryginalne utwory są wykorzystywane do napędzania takich technologii, należy wprowadzić regulację w formie rozporządzenia, by uniknąć rozdrobnienia europejskiego jednolitego rynku cyfrowego. Szczególnie, w związku z przedstawionym wyżej problemem, istotne jest, że jeśli autor stosuje SI jako narzędzie wyłącznie wspomagające, to dla ochrony takie wytworu wystarczające są dotychczasowe regulacje dotyczące własności intelektualnej. Jednocześnie w Rezolucji tej, podkreśla się, że twórczość oparta wyłącznie na SI powinna być chroniona w ramach praw własności intelektualnej, co jednak w niektórych przypadkach może być problematyczne z uwagi na zasadę oryginalności związanej z osobą fizyczną i tego, że „twórczość intelektualna” odnosi się do osobowości autora.

Innym zagadnieniem, na które PE zwraca uwagę jest fakt, ze SI i powiązane technologie opierają się na modelach obliczeniowych i algorytmach, które uznawane są za metody matematyczne, w związku z czym nie mają zdolności patentowej jako takiej i z tego powodu warto jest rozważyć wpływ takiej potencjalnej ochrony patentowej.

W celu jak najlepszego uregulowania przedmiotowego zagadnienia, PE zaleca, by ujmować SI w neutralnych definicjach, które nie będą się dezaktualizować wraz z postępem technologicznym.

W kontekście praw własności intelektualnej w świetle technologii SI należy brać pod uwagę stopień interwencji człowieka, autonomię samego systemu czy znaczenie roli i pochodzenia wykorzystywanych danych.

Co w przyszłości?

Rok 2020 jest niezwykle owocny w kontekście propozycji uregulowania zagadnień dotyczących SI. Dla przypomnienia należy wskazać m.in. „Białą księgę w sprawie sztucznej inteligencji” czy „Konkluzje w sprawie karty praw podstawowych w kontekście sztucznej inteligencji i przemian cyfrowych” (o czym pisaliśmy również na IPBlogu i poruszaliśmy te zagadnienia w podcaście – do tych materiałów odsyłam i zachęcam do zapoznania się). Z zadowoleniem należy przyjąć, że omówione wyżej rezolucje wraz z dołączonymi do nich projektami rozporządzeń niewątpliwie wskazują kierunek, w jakim Unia Europejska chce iść regulując kwestie sztucznej inteligencji, o czym świadczą konkretne propozycje wysunięte przez Parlament Europejski, np. w postaci przyjęcia odpowiedzialności na zasadzie ryzyka w przypadku technologii SI obarczonych wysokim ryzykiem. Omówione w niniejszym tekście rezolucje i inne proponowane regulacje tym bardziej zachęcają do śledzenia toku prac legislacyjnych nad wdrażaniem unormowań dotyczących sztucznej inteligencji na poziomie unijnym, a później – krajowym.

Dokumenty:

  1. Rezolucja z dnia 20 października 2020 r. zawierająca zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL)) – https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_PL.pdf;
  2. Rezolucja z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)) – https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_PL.pdf;
  3. Rezolucja z dnia 20 października 2020 r. w sprawie praw własności intelektualnej w dziedzinie rozwoju technologii sztucznej inteligencji (2020/2015(INI)) – https://www.europarl.europa.eu/doceo/document/TA-9-2020-0277_PL.pdf.

[1] Rezolucja z dnia 20 października 2020 r. zawierająca zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL)).

[2] Rezolucja z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)).

[3] Rezolucja z dnia 20 października 2020 r. w sprawie praw własności intelektualnej w dziedzinie rozwoju technologii sztucznej inteligencji (2020/2015(INI)).

 

Autor: Adrian Chodyna, prawnik, praktyka własności intelektualnej.

#odpowiedzialność cywilna #parlament europejski #prawo własności intelektualnej #Sztuczna inteligencja

Chcesz być informowany o najnowszych wpisach na blogu?

  • - Podaj adres e-mail i otrzymuj informację o nowym wpisach na blogu LSW IP prosto na Twoją skrzynkę
  • - Nie będziemy wysłać Ci spamu

Administratorem Twoich danych osobowych jest Leśnodorski Ślusarek i Wspólnicy sp. k. z siedzibą w Warszawie, przy ul. Szarej 10, 00-420 Warszawa.

Szanujemy Twoją prywatność dlatego przekazane nam dane nie będą przetwarzane i udostępniane poza LSW w innych celach niż ujęte w Regulaminie IP Bloga. Szczegółowe postanowienia dotyczące naszego IP Bloga, w tym katalog Twoich uprawnień związanych z przetwarzaniem danych osobowych znajdziecie Państwo w Regulaminie IP Bloga.