Ten blog korzysta z plików cookies na zasadach określonych tutaj
Zamknij
B+R (R&D)
17.03.2017

„Ja, robot” – czy rozwój robotyki i sztucznej inteligencji da się uregulować prawem? (cz. I)

Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości – to prawo nadrzędne sformułowane wiele lat temu przez Isaaca Asimova, traktowane było jako przejaw futurystycznego myślenia. Dziś to już  nie kwestia przyszłości, ale realiów. Rozpoczyna się epoka, w której zaczną nas otaczać androidy, tworzone na ludzkie podobieństwo, a wiele decyzji podejmowanych będzie autonomiczne przez sztuczną inteligencję.

 

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie dopuścić aby człowiek doznał krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, chyba, ze stoją one w sprzeczności z Pierwszym Prawem
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

„Zabawa w berka” („Rundaround”) I. Asimov, 1943 r.

Rozszerzone wiele lat później o prawo nadrzędne:

  1. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości („Robots and Empire” I.Asimov 1985 r.).

Przed nami spore wyzwanie uregulowania prawem odpowiedzialności sztucznej inteligencji. Reguły sformułowane lata temu przez Asimova powinny  być dziś traktowane jako wytyczne dla producentów, konstruktorów, programistów i osób sterujących maszynami. Do czasu… gdy roboty i sztuczna inteligencja osiągną samoświadomość i staną się naszą rzeczywistością.

 

Patent na robota

W ciągu ostatnich dziesięciu lat trzykrotnie wzrosła liczba składanych wniosków patentowych dotyczących robotyki, wzrost liczby sprzedanych robotów sięgnął 17 proc. rocznie (lata 2010-2014), a obecnie jest to już 29 % (dane Międzynarodowej Federacji Robotyki (IFR). Dynamiczny rozwój technologii związanej z konstruowaniem robotów, prace nad stworzeniem sztucznej inteligencji, rozwój technik kognitywnych, przetwarzanie i analiza big data doprowadzą do przejęciach przez roboty wielu prac, które wykonywane są obecnie przez ludzi. Już teraz roboty wkraczają w dziedziny zarezerwowane dotychczas wyłącznie dla umysłu ludzkiego – np. zaawansowane oprogramowanie analizuje umowy między kontrahentami z dużo większą skutecznością, znacznie usprawniając proces negocjacji i eliminując ryzyko ludzkiego błędu.

 

Przykładem takiego zastosowania jest DoNotPay – nazywany pierwszym prawnikiem-robotem, w rzeczywistości będący tzw. chatbotem, czyli zaawansowanym programem, który potrafi wchodzić w interakcję z użytkownikiem i jak dotychczas pomógł kierowcom z Londynu i Nowego Jorku anulować ponad 160 000 mandatów. Obecnie został skonfigurowany na udzielanie pomocy imigrantom szukającym azylu, dostarczając im bezpłatne porady prawne. Podobnie jak testowany w kancelariach prawniczych na całym świecie system IBM ROSS, który w ułamku sekundy analizuje aktualne akty prawne i orzecznictwo oraz umożliwia komunikację z systemem w naturalnym języku – odpowiada na pytania udzielając konkretnych odpowiedzi i wskazując rozwiązania. Trwają również zaawansowane prace nad zastosowaniem sztucznej inteligencji w celu rozwiązywania sporów sądowych (System Intelligent Trial 1.0 w Chinach).

 

Roboty to jednak nie tylko świetlana przyszłość, to również obawa czy w ciągu najbliższych lat sztuczna inteligencja nie wyprzedzi  ludzkich zdolności intelektualnych i na ile możemy czuć się z tym bezpiecznie. Istotne pozostają również kwestie bezpieczeństwa danych i obawa przed bezpośrednimi i fizycznymi zagrożeniami płynącymi z użytkowania robotów.

 

Androidy w granicach prawa

Z całą pewności ludzie będą wykorzystywali roboty i sztuczną inteligencję do tworzenia nowych rzeczy, jak również będą ich używać w relacjach z innymi ludźmi. Pojawia się tu kolejne ryzyko, czy takie wykorzystanie, będąc świadomym natury ludzkiej, nie będzie narażało drugiego człowieka? Odpowiedzialność cywilna robotów powinna być więc w tym zakresie regulowana oraz muszą zostać wprowadzone samoograniczenia determinujące ich działanie.

Już dziś, dzięki zdolności uczenia się i zaprogramowanej zdolności podejmowania decyzji, roboty potrafią wchodzić w interakcje z otoczeniem i wywierać na niego wpływ. Co, gdy efektem takiej działalności, np. zespołu robotów, będzie utwór muzyczny? Czy będzie można mu nadać przymiot twórczy i objąć ochroną prawnoautorską?

Duże znaczenie zyskają też kwestie związane z ochroną danych osobowych i prywatności, zarówno sztuczna inteligencja, jak i roboty, będą w stanie uzyskać niemalże nieograniczony dostęp do informacji o nas samych, otaczając nas niezauważalnym wpływem i „opieką”. Przy założeniu, że  będą się między sobą nieustannie komunikować bez ingerencji człowieka, a nawet bez jego wiedzy, może to doprowadzić do sytuacji, w której systemy zaczną same ewoluować i podejmować za nas decyzje dla naszego dobra  dążąc do wyeliminowania ryzyka jakie tworzy dla siebie sama ludzkość (po wizje takiej przyszłości odsyłam do filmów „Eagle Eye” i „I, Robot”).

To nie koniec wyzwań. Mamy też obszerne luki w zakresie odpowiedzialności umownej sztucznej inteligencji zaprojektowanej do tego by wybierać kontrahentów, negocjować warunki umowne, zawierać umowy i podejmować decyzje. Obowiązujące przepisy zarówno w Polsce, jak i na świecie, za tym nie nadążają. Na gruncie krajowym jedna z ostatnich nowelizacji kodeksu cywilnego przyniosła  dopiero formę dokumentową i elektroniczną czynności prawnej (Ustawa z dn. 10 lipca 2015 r. o zm. ust. KC, KPC oraz niektórych innych ustaw Dz.U.2015.1311). Pozostawienie tej kwestii  do uregulowania w licencjach na korzystanie z robotów, na zasadzie „you take this robot as it is” nie wydaje się być wystarczające.

 

Robot jak człowiek? Prawa i obowiązki

Fundamentalnym pozostaje pytanie, jak zakwalifikować roboty do jednej z dotychczasowych kategorii prawnych – czy powinny być traktowane jako zwierzęta czy przedmioty, osoby prawne lub nawet jako osoby fizyczne? Aktualnie pragmatyka zmierza w kierunku stworzenia zupełnie nowej kategorii, opartej o cechy specyficzne tylko dla tego rodzaju podmiotów i to właśnie im przypisany zostanie określony zestaw praw i obowiązków, a także odpowiednie regulacje w zakresie odpowiedzialności za szkody.

Pewne jest, że w świetle obowiązującego prawa, roboty nie będą ponosiły odpowiedzialności za działanie lub zaniechanie skutkujące szkodą osoby trzeciej. Analiza takich skutków będzie bowiem zawsze prowadziła do człowieka – operatora maszyny, który w ramach swojej działalności powinien przewidywać skutki swojego działania lub też w porę podjąć kroki w celu zapobieżenia niebezpieczeństwu. Co jednak w sytuacji, gdy osiągniemy ten poziom zaawansowania, kiedy to sztuczna inteligencja lub robot będą w stanie podjąć samodzielnie decyzje bez ingerencji człowieka?

Jak na razie brak jest podstaw do tego by robotom i sztucznej inteligencji przypisać odpowiedzialność na zasadzie winy, należy ją raczej kwalifikować jako odpowiedzialność na zasadzie ryzyka. W takim przypadku po przedstawieniu dowodu powstania szkody koniecznie będzie ustalenie związku przyczynowo – skutkowego pomiędzy zachowaniem robota a szkodą, jakiej doznał pokrzywdzony. Nie powinno to jednak prowadzić do wyłączenia odpowiedzialności konstruktora i programisty maszyny, który wszak jest jego twórcą. W związku z tym pojawiają się postulaty objęcia robotów obowiązkowym ubezpieczeniem, na wzór OC dla samochodów.

 

Świat szykuje się do zmian

Temat odpowiedzialności robotów jest szeroko dyskutowany na świecie, zwłaszcza w USA, Japonii, Chinach i Korei Południowej (w której opracowano już kilka lat temu Kodeks Etyczny Robotów). Te kraje najbardziej przyczyniają się do rozwoju robotyki, dlatego prowadzą zaawansowane prace na wprowadzeniem do swoich systemów prawnych zmian w celu uregulowania nowych zastosowań robotyki.

 

Europa nie pozostaje w tyle. Próby stworzenia ram prawnych dla sztucznej inteligencji podejmuje Parlament Europejski. Rozpoczęto już prace nad powstaniem Europejskiej Agencji Robotyki i Sztucznej Inteligencji, której celem ma być zagwarantowanie państwom członkowskim wiedzy technicznej i etycznej, która niezbędna będzie do działania na rzecz zapewnienia odpowiedniej reakcji na nowe możliwości i wyzwania, jakie stawia przed nami rozwój technologiczny robotyki. Z kolei Komisja Europejska pracuje nad propozycją wspólnej europejskiej definicji inteligentnych robotów autonomicznych oraz ich podkategorii.

 

Z jednej strony widzimy niezwykłe zmiany technologiczne, które zachodzą na naszych oczach. Z drugiej – jako prawnicy – z fascynacją obserwujemy, jak prawo próbuje za nimi nadążyć, a państwa – stworzyć przewidywalne ramy poruszania się po świecie innowacji. Nikt nie może przewidzieć ostatecznych skutków tego wyścigu. Niewątpliwie przyszło nam żyć w ciekawych czasach.

 

[Mamy świadomość, że niniejszy tekst mógł jedynie rozbudzić ciekawość czytelników, będziemy kontynuować temat w kolejnych artykułach. Zapraszamy do śledzenia naszego konta na Facebooku, gdzie informujemy o najnowszych wpisach]

##robot #AI #sztucznainteligencja #roboty #odpowiedzialnosc

Chcesz być informowany o najnowszych wpisach na blogu?

  • - Podaj adres e-mail i otrzymuj informację o nowym wpisach na blogu LSW IP prosto na Twoją skrzynkę
  • - Nie będziemy wysłać Ci spamu

Administratorem Twoich danych osobowych jest Leśnodorski Ślusarek i Wspólnicy sp. k. z siedzibą w Warszawie, przy ul. Szarej 10, 00-420 Warszawa.

Szanujemy Twoją prywatność dlatego przekazane nam dane nie będą przetwarzane i udostępniane poza LSW w innych celach niż ujęte w Regulaminie IP Bloga. Szczegółowe postanowienia dotyczące naszego IP Bloga, w tym katalog Twoich uprawnień związanych z przetwarzaniem danych osobowych znajdziecie Państwo w Regulaminie IP Bloga.