Rozwój technologii autonomicznych pojazdów budzi nie tylko fascynację, lecz także szereg pytań o odpowiedzialność prawną za ich działania. Gdy kierownicą nie kieruje człowiek, a algorytm, kto odpowiada za skutki błędnych decyzji pojazdu? Producent, właściciel, twórca oprogramowania?
Czym właściwie są samochody autonomiczne?
Samochody autonomiczne to pojazdy wyposażone w systemy umożliwiające im poruszanie się bez udziału kierowcy. W zależności od poziomu automatyzacji możemy mówić o asystowaniu kierowcy (poziom 1-2), częściowej automatyzacji (poziom 3), wysokiej (poziom 4) lub pełnej (poziom 5), gdzie kierowca nie ma już w ogóle kontroli nad pojazdem.
Technologia taka opiera się na złożonym zestawie sensorów (lidary, radary, kamery) połączonych z systemem sztucznej inteligencji podejmującym decyzje na podstawie analizy danych w czasie rzeczywistym. Systemy te mogą przewidywać ruch innych uczestników ruchu drogowego, rozpoznawać znaki, sygnalizację świetlną czy nieprzewidziane przeszkody.
Aktualne przepisy prawne w Unii Europejskiej dotyczące pojazdów autonomicznych
W większości krajów, w tym również w Polsce, Kodeks drogowy oraz Kodeks cywilny i Kodeks karny zakładają, że za prowadzenie pojazdu odpowiada kierowca. Problem zaczyna się w momencie, gdy pojazd kieruje się sam, a człowiek siedzący za kierownicą nie podejmuje aktywnej kontroli. Choć pojawiają się próby legislacji na poziomie unijnym, wiele aspektów nadal pozostaje niedookreślonych.
W praktyce oznacza to, że w przypadku wypadku z udziałem pojazdu autonomicznego analizie podlegają:
- stopień ingerencji człowieka w proces kierowania;
- poziom autonomii pojazdu;
- możliwe błędy w oprogramowaniu;
- potencjalne zaniedbania producenta;
- obowiązki właściciela pojazdu.
Wypadek lub kolizja z autem autonomicznym – kto ponosi odpowiedzialność cywilną i płaci za szkody?
W klasycznych przypadkach wypadków drogowych odpowiedzialność cywilna (odszkodowawcza) spoczywa na kierowcy i jego ubezpieczycielu OC. Jednak przy pojazdach autonomicznych mamy do czynienia z sytuacją, w której człowiek mógł w ogóle nie mieć wpływu na decyzję pojazdu, np. gdy system samoczynnie przyspieszył lub nie zahamował w odpowiednim momencie. W takiej sytuacji mogą zostać rozważone różne modele odpowiedzialności:
1. Odpowiedzialność producenta auta
Jeżeli błąd spowodowany został wadą konstrukcyjną pojazdu, producent może ponosić odpowiedzialność na zasadzie rękojmi lub tzw. odpowiedzialności za produkt niebezpieczny. Dotyczy to zarówno fizycznych komponentów (np. sensorów), jak i oprogramowania (algorytm błędnie interpretujący pieszych jako przeszkody niegroźne).
2. Odpowiedzialność właściciela pojazdu
Choć kierowca mógł nie prowadzić pojazdu, to wciąż może odpowiadać jako właściciel, np. za nieaktualizowanie oprogramowania, zaniedbanie przeglądów czy niewłaściwe korzystanie z systemu autonomicznego. W niektórych przypadkach sądy mogą uznać, że właściciel powinien przewidzieć możliwość awarii systemu i być gotowym do przejęcia kontroli.
3. Odpowiedzialność programisty lub dostawcy systemu
Coraz częściej rozważa się także odpowiedzialność podmiotów tworzących i wdrażających algorytmy AI, zwłaszcza jeśli błąd leży w samej logice działania oprogramowania. Na ten moment jednak jest to obszar prawnie niezdefiniowany. Trudno bowiem przypisać winę konkretnej osobie za decyzję podjętą przez samouczący się system.
Odpowiedzialność karna – czy AI może popełnić przestępstwo?
Z perspektywy prawa karnego odpowiedzialność musi być przypisana osobie fizycznej lub osobie prawnej, która działa umyślnie lub nieumyślnie. Maszyna nie ma podmiotowości prawnej, a tym samym nie może być uznana za sprawcę przestępstwa.
W przypadku wypadku śmiertelnego z udziałem pojazdu autonomicznego sąd będzie szukał winy wśród:
- właściciela auta (czy dołożył należytej staranności względem eksploatacji pojazdu);
- użytkownika w danym momencie (czy mógł on zareagować);
- producenta lub dostawcy systemów (czy wystąpiło rażące niedbalstwo w projektowaniu systemu).
Nie jest jednak wykluczone, że w przyszłości zostaną wprowadzone nowe konstrukcje prawne umożliwiające przypisywanie odpowiedzialności sztucznej inteligencji lub osobom nią zarządzającym, np. operatorowi floty.
Przykłady wypadków i kolizji aut autonomicznych - kto poniósł odpowiedzialność?
Najbardziej znanym przypadkiem jest śmiertelny wypadek z udziałem samochodu Ubera w Tempe (Arizona, USA) w 2018 roku. Autonomiczne Volvo XC90 potrąciło pieszą prowadzącą rower. Śledztwo wykazało, że system nie zareagował prawidłowo, a tzw. operator bezpieczeństwa (człowiek w kabinie) nie obserwował drogi. Efektem przeprowadzonych czynności firma Uber uniknęła odpowiedzialności karnej, twierdząc, że winę ponosi człowiek, który nie przejął kontroli. Ostatecznie postawiono zarzuty właśnie tej osobie.
Stanowisko Unii Europejskiej, czyli projekt AI Act
W marcu 2023 roku Komisja Europejska opublikowała projekt AI Act, który reguluje użycie systemów sztucznej inteligencji, także w pojazdach autonomicznych. Celem jest wprowadzenie wymogów dotyczących bezpieczeństwa, nadzoru nad algorytmami i przejrzystości.
Równocześnie trwają prace nad modyfikacją przepisów o odpowiedzialności za produkt niebezpieczny. W nowych regulacjach producentom systemów AI ma być łatwiej przypisać odpowiedzialność za szkody wyrządzone przez systemy autonomiczne.
Odpowiedzialność za pojazdu autonomiczne - dlaczego potrzebne jest nowe prawo?
Złożoność technologii autonomicznych wymusza przemyślenie dotychczasowych koncepcji odpowiedzialności. Coraz więcej prawników sugeruje potrzebę odejścia od tradycyjnego modelu „kierowca odpowiada za wszystko”, na rzecz modelu zbiorowej odpowiedzialności uczestników łańcucha tworzenia pojazdu autonomicznego.
W tym podejściu odpowiedzialność rozkłada się na:
- producenta sprzętu;
- twórcę oprogramowania;
- właściciela pojazdu;
- dostawcę danych (np. map cyfrowych);
- operatora floty (w przypadku aut na wynajem).
Taki model już funkcjonuje w lotnictwie cywilnym, gdzie odpowiedzialność za incydent rozkłada się na wielu interesariuszy.
Ubezpieczenie AC / OC a pojazdy autonomiczne
Kwestia ubezpieczeń OC i AC dla pojazdów autonomicznych nadal pozostaje w fazie dostosowawczej. Tradycyjne polisy zakładają istnienie kierowcy jako sprawcy. Firmy ubezpieczeniowe muszą zatem zrewidować swoje modele, np. oferować polisy przypisane do pojazdu i jego algorytmu, a nie do osoby kierującej.
Coraz częściej mówi się o tzw. ubezpieczeniach produktowych, które obejmują szkody spowodowane przez błędy konstrukcyjne lub algorytmiczne. Taki model mógłby być rozwiązaniem dla producentów oferujących pojazdy autonomiczne w leasingu lub carsharingu.
Podsumowanie
Odpowiedzialność prawna w przypadku wypadku z udziałem samochodu autonomicznego to złożona kwestia, która nie ma jeszcze jednoznacznych odpowiedzi. Kluczowe będzie wypracowanie nowych ram prawnych, które uwzględnią specyfikę działania pojazdów bez udziału człowieka. Obecne przepisy są nieprzystosowane do realiów technologicznych XXI wieku, a szybki rozwój sztucznej inteligencji i automatyzacji zmusza ustawodawców do działania. Jedno jest pewne – pytanie o to, kto ponosi winę w przypadku wypadku samochodu autonomicznego, będzie jednym z najważniejszych dylematów prawa w najbliższych latach.