Sztuczna inteligencja ma szerokie zastosowanie w medycynie. Może być efektywnym sposobem na przyspieszenie i usprawnienie procesu rozpoznania chorób oraz na podniesienie jakości opieki medycznej. Pojawia się jednak problem – „kwestie dotyczące sztucznej inteligencji w polskim prawie nie są w ogóle uregulowane” – powiedziała prof. Justyna Król-Całkowska. „To jest podstawowy problem, ponieważ my czerpiemy z „regulacji unijnych”, natomiast nie mamy regulacji, które bezpośrednio odnosiłyby się do sztucznej inteligencji i do błędów, jakie wyniknęły podczas jej działania” – zaznaczyła.

Sztuczna inteligencja w medycynie

W medycynie ze sztuczną inteligencją mamy do czynienia wtedy, kiedy złożony algorytm, podobny do sieci neuronowych człowieka, jest w stanie podjąć indywidualną decyzję w oparciu o zmienne, które mu dostarczono. Znajduje ona zastosowanie przede wszystkim w diagnostyce – zwłaszcza w diagnostyce obrazowej. „Program sztucznej inteligencji obrazuje np. zdjęcia RTG i w oparciu o dane, czyli to, czego się nauczył, stwierdza, czy obraz jest prawidłowy czy patologiczny” – wyjaśnia profesor. Ponadto AI stosowana jest także w radiologii, psychiatrii, dermatologii czy diagnostyce nowotworów.

Zawód lekarza jest obarczony dużą odpowiedzialnością, ale co, jeśli to sztuczna inteligencja popełni błąd? „Możemy przyjąć, że musimy obarczyć odpowiedzialnością osobę, która programuje tę sztuczną inteligencję i nie przewidziała, że w oparciu o zmienne, których będzie się jej dostarczać, będzie ona mogła podjąć złą decyzję” – stwierdziła ekspertka. Z drugiej strony, odpowiedzialność operatora, który dokonał zaprogramowania, wydaje się jej nad wyraz szeroka. AI jest tworzona po to, aby podejmować autonomiczne decyzje, co w oczywisty sposób wiąże się pewnym z ryzykiem. Drugą koncepcją jest przypisywanie odpowiedzialności za błędy użytkownikowi AI, ale to z kolei ograniczy poziom zaufania i chęć korzystania ze sztucznej inteligencji w opiece zdrowotnej.

„Trudno jest dzisiaj powiedzieć, kto ostatecznie ponosi odpowiedzialność i która z tych koncepcji jest optymalna” – stwierdziła Król-Całkowska. Wiadomo natomiast, że prawo jest jednym z narzędzi, które zapewni, że odpowiedzialność istnieje. Dodatkowo może ograniczyć lęk, zarówno lekarzy jak i pacjentów, przed używaniem AI.

www.pap.pl

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj