7 minute read

ODPOWIEDZIALNOŚĆ ZA SZTUCZNĄ INTELIGENCJĘ

Obowiązujące obecnie w Unii Europejskiej przepisy dotyczące odpowiedzialności za produkt mają już prawie 40 lat. Trwający boom technologiczny i coraz częstsze wkraczanie innowacji do życia codziennego, w tym przede wszystkim sztucznej inteligencji wykorzystywanej w produktach powszechnego użytku i usługach, wymusza dostosowanie regulacji prawnych do nowych realiów.

Właśnie dlatego ustawodawca unijny wyjął przed nawias kwestie związane z odpowiedzialnością za produkty i sztuczną inteligencję, i niezależnie od ogłoszonego w kwietniu zeszłego roku aktu w sprawie sztucznej inteligencji (Rozporządzenie AI), pod koniec września Komisja opublikowała projekt nowej dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję (Dyrektywa o Odpowiedzialności za AI).

Pakiet o sztucznej inteligencji

– Przedstawiona Dyrektywa o Odpowiedzialności za AI stanowi uzupełnienie Rozporządzenia AI. Podstawowym celem projektowanych regulacji jest ochrona konsumentów i przedsiębiorstw oraz dostosowanie przepisów do dynamicznie rozwijającego się rynku innowacji i ery cyfrowej. Dzięki nowym regulacjom powinno być jasne kto, kiedy i na jakich zasadach ponosi odpowiedzialność za produkty wadliwe – od inteligentnych technologii, takich jak IoT, po produkty farmaceutyczne – wskazuje Zuzanna Nowak-Wróbel, Associate w warszawskim zespole IP & TMT kancelarii Wolf Theiss.

Opublikowany projekt Dyrektywy o Odpowiedzialności za AI z jednej strony zmienia obowiązującą dyrektywę w sprawie odpowiedzialności za produkty, jednocześnie dostosowując ją do transformacji technologicznej, a z drugiej proponuje nowe przepisy dedykowane sztucznej inteligencji. Dyrektywa wskazuje wprost, że nie ma zastosowania do odpowiedzialności karnej – projektowane regulacje dotyczą wyłącznie kwestii odpowiedzialności pozaumownej opartej na zasadzie winy, czyli za szkody wyrządzone umyślnie lub w wyniku niedbałego działania, czy zaniechania. Obejmuje to m.in. naruszenie prywatności czy szkody spowodowane błędami algorytmów AI oraz wadliwymi produktami wykorzystującymi AI. Tak jak w przypadku obowiązujących przepisów dotyczących odpowiedzialności za produkty, produkt AI uznaje się za wadliwy, jeżeli nie zapewnia bezpieczeństwa, jakiego użytkownik ma prawo oczekiwać, biorąc pod uwagę np. wygląd produktu, spodziewany sposób użycia czy też moment wprowadzenia produktu na rynek. Nowe przepisy ułatwią konsumentom m.in. uzyskanie odszkodowania, gdyby produkty takie jak roboty, drony lub systemy inteligentnego domu stały się niebezpieczne z powodu aktualizacji oprogramowania i wyrządziły szkody użytkownikowi.

– Dzięki zmienionym przepisom przedsiębiorstwa zyskają pewność prawa, co pozwoli im inwestować w nowe i innowacyjne produkty, a konsumenci będą mogli uzyskać godziwe odszkodowanie, gdy wadliwe produkty spowodują szkodę. Generalnie, osoby poszkodowane będą mogły korzystać z takich samych standardów ochrony w przypadku szkody spowodowanej przez produkty lub usługi związane ze sztuczną inteligencją, jakie obowiązywałyby w przypadku wystąpienia szkody w jakichkolwiek innych okolicznościach – wyjaśnia Jakub Pietrasik, Counsel kierujący praktyką IP & TMT w warszawskim biurze kancelarii Wolf Theiss.

Domniemanie związku

przyczynowo-skutkowego Proponowana Dyrektywa o Odpowiedzialności za AI wprowadza tzw. domniemanie istnienia związku przyczynowego – oznacza to, że w okolicznościach, w których stwierdzono zdarzenie wywołujące szkodę, szkodę jako taką i winę, a związek przyczynowy z funkcjonowaniem sztucznej inteligencji wydaje się być prawdopodobny, przyjmuje się istnienie związku przyczynowego wystarczającego do dochodzenia odszkodowania za działania lub braki działania systemu sztucznej inteligencji. Niemniej jednak domniemanie takie należy zastosować tylko wtedy, gdy spełnione są określone warunki.

– Przyjęcie domniemania istnienia związku przyczynowego pozwoli uniknąć konieczności żmudnego udowadniania i wyjaśniania, w jaki sposób szkoda została spowodowana, co niejednokrotnie wymaga znacznej wiedzy technicznej i zrozumienia złożonych systemów sztucznej inteligencji. Eliminujemy w ten sposób tzw. problem czarnej skrzynki (black box effect), czyli kłopot ze zrozumieniem funkcjonowania algorytmów, na których oparte są modele sztucznej inteligencji. Umiemy bowiem ustalić jakie informacje trafiają do systemu i wiemy, co z niego wychodzi. Nie wiemy natomiast, w jaki sposób przebiega sam sposób wnioskowania. Jest to trudne nie tylko dla laików, ale zarówno dla specjalistów, dlatego dobrym krokiem jest wyeliminowanie tego problemu na poziomie sporów jak i dochodzenia odszkodowań za błędy AI – dodaje Zuzanna Nowak-Wróbel.

Ułatwienia dowodowe

Projekt dyrektywy odrębnie traktuje systemy AI wysokiego ryzyka. Zgodnie z aktualną wersją Rozporządzenia AI, systemami AI wysokiego ryzyka są m.in. wszelkie systemy, które wymagają oceny zgodności z udziałem jednostki notyfikowanej, jak również na przykład systemy do identyfikacji i kategoryzacji biometrycznej, pojazdy autonomiczne, systemy scoringowe czy systemy zarządzające infrastrukturą krytyczną (dostawy wody, paliw czy ogrzewania i elektryczności). Dyrektywa wprowadza dodatkowe narzędzie, którym mogą posłużyć się ofiary, dochodząc zadośćuczynienia od dostawców takich systemów – planowane jest wprowadzenie prawa dostępu do dowodów od dostawców systemów AI. Z tego względu dostawca lub użytkownik systemów

AI może zostać zobowiązany do ujawnienia dokumentacji technicznej systemu, wyników testów walidacyjnych algorytmów AI czy też dokumentacji systemu zarządzania jakością. Tutaj ustawodawca również wprowadza instytucję domniemania – bowiem w przypadku niezastosowania się do nakazu ujawnienia informacji dostawca ma zostać uznany za winnego niedochowania należytej staranności w związku z działaniem systemu AI. Co ciekawe, w przypadku systemów AI wysokiego ryzyka domniemanie istnienia związku przyczynowego może zaistnieć wyłącznie, gdy powód udowodni, że dostawca naruszył obowiązki nałożone na niego na podstawie Rozporządzenia AI. Naruszenia takie mogą polegać m.in. na stworzeniu systemu z wykorzystaniem danych treningowych, walidacyjnych i testowych, które nie spełniają kryteriów jakościowych lub na zaprojektowaniu systemu z naruszeniem zasad dotyczących przejrzystości działania i interpretowalności wyników działania, czy zasad dotyczących nadzoru człowieka nad działaniem systemu. Z kolei w przypadku dochodzenia roszczeń przeciwko użytkownikowi systemu AI wysokiego ryzyka konieczne jest wykazanie działania użytkownika niezgodnego z przedstawionymi mu instrukcjami lub narażenie systemu AI na wprowadzenie danych, które nie są istotne z punktu widzenia przeznaczenia tego systemu.

– Strategia zarządzania ryzykiem realizowana w trakcie cyklu życia systemu AI wysokiego ryzyka może być elementem przydatnym do celów oceny

W przypadku systemów AI wysokiego ryzyka domniemanie istnienia związku przyczynowego może zaistnieć wyłącznie, gdy powód udowodni, że dostawca naruszył obowiązki nałożone na niego na podstawie Rozporządzenia AI zgodności systemu z obowiązkowymi wymogami nakładanymi na dostawców takiego systemu. Stąd też wszelkie kroki podejmowane przez dostawców w ramach systemu zarządzania ryzykiem i same wyniki, tj. decyzje o przyjęciu lub nieprzyjęciu określonych środków, powinny być na bieżąco monitorowane i dokumentowane, gdyż ich prawidłowość i kompletność wpływać będzie nie tylko na ich zgodność z przepisami, ale również wprost na odpowiedzialność odszkodowawczą – wyjaśnia Jakub Pietrasik.

Nowe przepisy ułatwią konsumentom m.in. uzyskanie odszkodowania, gdyby produkty takie jak roboty, drony lub systemy inteligentnego domu stały się niebezpieczne z powodu aktualizacji oprogramowania.

Ujednolicenie przepisów o sztucznej inteligencji

Wyraźnie widać, że ustawodawca unijny aktywnie pracuje nad regulacjami AI i dąży do możliwego ich ujednolicenia we wszystkich państwach członkowskich. W efekcie powstał pakiet różnego rodzaju regulacji unijnych odnoszący się do systemów AI. Pakiet ten na chwilę obecną obejmuje trzy uzupełniające się obszary:

- podstawowe przepisy horyzontalne dotyczące systemów sztucznej inteligencji (Rozporządzenie AI);

- aktualizacje i dostosowanie sektorowych i horyzontalnych przepisów dotyczących bezpieczeństwa produktów (zmiany przepisów dyrektywy o bezpieczeństwie produktów);

- nowe przepisy dotyczące kwestii odpowiedzialności związanych z systemami AI (projekt dyrektywy odpowiedzialność AI).

– W odróżnieniu od przepisów Rozporządzenia AI, przepisy Dyrektywy o Odpowiedzialności za AI nie będą obowiązywać w państwach unijnych bezpośrednio, dlatego czeka nas konieczność implementacji nowych regulacji i szereg zmian w prawie krajowym. Póki co trzeba uzbroić się w cierpliwość, gdyż jeszcze sporo czasu upłynie, zanim poznamy finalne przepisy, które opracują i przyjmą państwa członkowskie. Niemniej jednak projektowane akty związane z odpowiedzialnością za systemy AI są bardzo dobrym krokiem w stronę zwiększania pewności prawnej regulacji dotyczących nowych technologii. Producenci, ubezpieczyciele oraz użytkownicy powinni zyskać pewność, w jaki sposób będą stosowane przepisy dotyczące odpowiedzialności w odniesieniu do szkód spowodowanych systemami AI, a tym samym w ocenie i ubezpieczeniu swojego ryzyka związanego z działalnością opartą na rozwiązaniach AI - podsumowuje Jakub Pietrasik.

Obawy o bezpieczeństwo

Model językowy w trzy sekundy nauczy się sposobu mówienia danej osoby, a potem wypowie dowolny komunikat jej głosem i z jej emocjami. Najprawdopodobniej w takim kierunku rozwiną się algorytmy generujące dziś komunikaty tekstowe o walorach równoznacznych z tymi, które tworzą ludzie. Choć technologia przynosi wiele korzyści, związanych np. z łatwiejszą komunikacją ze sztuczną inteligencją, to pojawiają się obawy o jej nieetyczne wykorzystanie, np. w cyberatakach czy tworzeniu bardzo wiarygodnych fake newsów.

– Fenomen ChatGPT jest taki, że po raz pierwszy tak zaawansowana technologia do generowania tekstu trafiła do mainstreamu. Stała się wręcz viralem i trafiła do bardzo szerokiego grona odbiorców z różnych dziedzin oraz z różnego poziomu zaawansowania technologicznego – ocenia Kuba Białczyk, założyciel i przewodniczący Klubu Naukowego Koźmiński AI na Akademii Leona Koźmińskiego w Warszawie.

ChatGPT jest platformą sztucznej inteligencji mogącą generować tekst o wartości porównywalnej z takim, który stworzyłby człowiek. Rozwiązanie projektowane było z myślą o umożliwieniu prowadzenia rozmowy ze sztuczną inteligencją. Rozwijana przez ostatnich pięć lat platforma opiera się na modelu obejmującym już 175 mld parametrów.

– Dzięki temu narzędziu pracownicy mogą się nauczyć współpracować ze sztuczną inteligencją podczas swoich codziennych zadań w pracy, przez co mogą osiągnąć dużo większą efektywność, zwiększyć swoją produktywność, a także pomóc swoim firmom wznieść się na wyższy poziom efektywności. Coraz bardziej otwarty dostęp i coraz większa demokratyzacja takich technologii sprawi, że osoby, które nie są specjalistami z dziedziny sztucznej inteligencji czy uczenia maszynowego, będą mogły tworzyć produkty technologiczne oparte właśnie na takich zaawansowanych technologiach jak ChatGPT i wypuszczać je na rynek – mówi Kuba Białczyk.

Sporo wątpliwości

Twórcy nie mówią też ostatniego słowa w kwestii funkcjonalności ChatGPT. Są w trakcie opracowywania algorytmów mogących odpowiadać już nie tylko pisemnie, lecz również ludzkim głosem. Choć korzyści związane z używaniem tego rozwiązania są oczywiste, pojawiają się również wątpliwości i zagrożenia.

– Jednym z zagrożeń, które wiąże się z używaniem ChatGPT na taką skalę, jest generowana treść, która nie zawsze jest prawdziwa, i bardzo często ciężko jest ją odróżnić od nieprawdziwej. Użytkownicy potem publikują te treści dalej w internecie lub wykorzystują w swojej pracy, nie wiedząc, że nie są one prawdziwe. Używanie rozwiązania na taką skalę w mass mediach może prowadzić do ogromnego problemu z fake newsami i z ich detekcją – zauważa Kamil Kinastowski z Akademii Leona Koźmińskiego.

Technologia stojąca za modułem generowania mowy, VALL-E, jest w stanie w zaledwie trzy sekundy nauczyć się sposobu, w jaki dana osoba mówi. W połączeniu z możliwością tworzenia obrazów rozwiązanie będzie w stanie pomóc na przykład w stworzeniu realistycznie wyglądającej wypowiedzi polityka, jednak w rzeczywistości będzie to fake news.

Eksperci WithSecure podkreślają także ryzyko, jakim jest wykorzystywanie tych narzędzi do różnego rodzaju cyberataków. Seria przeprowadzonych przez nich eksperymentów wskazała, że modele językowe wykorzystujące sztuczną inteligencję zwiększają skuteczność komunikacji będącej częścią ataku. Wraz z doskonaleniem takich narzędzi coraz trudniej będzie odróżnić fałszywą treść maila od nadawcy podszywającego się np. od banku czy dostawcy mediów. Z kolei operatorzy platform społecznościowych będą mieli większe trudności, by rozpoznać obraźliwe treści tworzone przez boty. Eksperci WithSecure prognozują więc, że cyberprzestępcy będą w nieprzewidywalny sposób rozwijać możliwości, jakie dają duże modele językowe. Mimo kontrowersji prawdopodobnie takie rozwiązania staną się jednym z wiodących trendów technologicznych. Świadczyć może o tym chociażby fakt, że strategicznym inwestorem w przypadku ChatGPT jest Microsoft. Informatyczny gigant ma 49% udziałów w OpenAI.

– Wielkoskalowe modele językowe wejdą do naszego codziennego świata. Microsoft będzie implementował te modele językowe do swoich produktów, po czym inne firmy również będą chciały podobny sukces osiągnąć, implementując je u siebie. Na sto procent tego typu produkty będą dostępne na rynku. Pytanie tylko, w jaki sposób będą używane – zastanawia się Kamil Kinastowski, założyciel i wiceprzewodniczący koła naukowego Koźmiński AI. Według Precedence Research światowy rynek technologii przetwarzania języka naturalnego wypracował w 2021 roku przychody wynoszące 18,6 mld dol. Do 2030 roku ma to już być 361,6 mld dol.

O technologii stojącej za rozwiązaniami takimi jak ChatGPT oraz o szansach i ryzykach z nimi związanymi rozmawiali uczestnicy styczniowego spotkania Thursday Gathering. Tym razem wydarzenie to odbyło się pod hasłem „Who am AI?”. Organizatorem cotygodniowych spotkań społeczności innowatorów w warszawskim Varso jest Fundacja Venture Café Warsaw. Oprac. AP

This article is from: