Přejít k hlavnímu obsahu
Novinky

Měli bychom Chat GPT brát jako zdravotnický prostředek? Podle některých jeho odpovědí ano – pozor ale na rizika

redakce 13.03.2023

Umělá inteligence se nám pomalu ale jistě dostává do života. A když studentům začala psát školní práce, byla najednou zajímavá i pro media. To ale ještě nemusí znamenat ohrožení lidského zdraví nebo dokonce života. Jak ale v případě odpovědí umělé inteligence na otázky, týkající se zdraví a řešení souvisejících problémů?

Kapitoly článku

Snad do všech zpráv se nedávno dostala internetová chatovací služba ChatGPT, ve které si můžeme popovídat s umělou inteligencí. Dokonce nám tento nástroj dokáže poměrně erudovaně odpovídat i na otázky, týkající se zdraví a péče o něj.

Rádi bychom tedy věděli, zda by vzhledem k současným vlastnostem už neměl být ChatGPT považován za zdravotnický prostředek, který podléhá přísným regulacím.

Probrali jsme proto právní problematiku s odborníkem na zdravotnické prostředky, Mgr. Patrickem Boháčkem, advokátem z advokátní kanceláře dubanska & co.

ChatGPT je takzvaný generativní model AI od americké společnosti OpenAI, který dokáže generovat téměř lidské odpovědi na nejrůznější otázky v různých jazycích včetně češtiny. Ke trénování tohoto modelu bylo využito enormní množství textových dat ze všech oblastí, jako jsou články, knihy, noviny, webové stránky a další. V řadě svých aplikací využívá OpenGPT i společnost Microsoft, která do startupu OpenAI investovala obrovské částky peněz.

Chat GPT: kontroverzní otázky z oblasti autorských práv

chatgpt

Fantastická technologie umělé inteligence vzbuzuje spoustu otázek. Týkají se i oblasti věrohodnosti a autorských práv. | Zdroj: Emiliano Vittoriosi/Unsplash

V souvislosti s praktickým využitím ChatGPT v různých oblastech se ale objevuje celá řada právních otázek. Jednou z nejdůležitějších je pravděpodobně otázka autorských práv. Tréninkové algoritmy totiž doslova bagrují obsah internetu a získaný obsah využívají k odpovědím na zvídavé dotazy uživatelů bez toho, aniž by uváděly zdroj. První online encyklopedie se nyní takovému využití už brání.

V oblasti zdravotnického práva to bude možná ještě větší dobrodružství. Jde totiž o to, o jakém množství medicíny smí generativní umělá inteligence mluvit, aniž by ohrozila bezpečnost pacientů. Některé advokátní kanceláře v EU žádají národní orgány o posouzení. Chtěli by vlastně znát výklad, zda by se podle současné legislativy ChatGPT už neměl posuzovat jako zdravotnický prostředek.

Je jasné, že tvůrci ze San Franciska svůj generativní model umělé inteligence nevyvinuli výslovně pro zdravotní účely. Jedná se ale o širokou a do značné míry otevřenou platformu, která však lékařské účely také výslovně nevylučuje. Při vhodné formulaci otázky software dokonce poskytuje uživateli podrobné lékařské odpovědi a konkrétní pomoc, včetně doporučení léků.

"Primární hledisko posouzení, zda je software zdravotnickým prostředkem, je výrobcem zamýšlený účel použití. Tento záměr výrobce je však nutné dovodit nejen z toho, jak je software prezentován, ale i z jeho skutečných funkcí. V opačném případě by výrobci stačilo uvést, že se nejedná o zdravotnický prostředek, aby se vyhnul přísné regulaci,“ upozorňuje Mgr. Patrick Boháček advokát z advokátní kanceláře dubanska & co.

Chat GPT: jde o zdravotnický prostředek?

chatgpt-computer

Díky enormně rozsáhlé databázi, se kterou Chat GPT pracuje, zná odpověď na celou řadu otázek, včetně zdravotnických problémů. Někteří právníci mají za to, že by tento software měl být v Evropě regulován jako zdravotnický prostředek. | Zdroj: Alexandra_Koch/Pixabay

Podle právních výkladů lze v dnešní podobě ChatGPT bez dalšího používat k diagnostice, monitorování, léčbě nebo prevenci nemocí. Software rovněž poskytuje informace, které lze využít pro rozhodování v oblastech diagnostiky nebo terapie.

Patrick Boháček dále doplňuje: „Podle dosavadních výkladových stanovisek Koordinační skupiny pro zdravotnické prostředky (MDCG) software není zdravotnickým prostředkem, pokud plní funkce pouze jednoduchého vyhledávání. Naopak se bude s vysokou pravděpodobností jednat o zdravotnický prostředek, pokud software zpracovává, analyzuje, upravuje nebo vytváří informace za zdravotnickým účelem.“

Někteří právníci tvrdí, že tím, že lékařské účely nejsou výslovně vyloučeny, prakticky lékařský účel implikuje. Rovněž tvrdí, že odpovědi, které ChatGPT na příslušné otázky poskytuje, nelze chápat jinak než jako konkrétní lékařskou pomoc.

Rozhodně jsou něčím víc než jen slovně prezentovanými výsledky vyhledávání. Pokud by evropské orgány sdílely tento názor, mohlo by být nutné přijmout opatření k zamezení příslušných činností tohoto softwaru.

Pokud by převážil názor o charakteru ChatGPT jako o zdravotnickém prostředku, platila by pro software přísná pravidla nařízení o zdravotnických prostředcích (MDR). Pravděpodobně by byly zahrnuty i další požadavky obsažené v připravovaném EU nařízení o umělé inteligenci, známým jako EU AI ACT (https://artificialintelligenceact.eu/).

„Otázka použití umělé inteligence v regulovaných odvětvích je velmi aktuální, a to nejen ve zdravotnictví. Potřeba nalézt jasné odpovědi se zvyšuje s rozšiřujícími se schopnostmi nových projektů umělé inteligence a jejich větší obecností.

Umělá inteligence dnes zvládne simulovat poradenství nejen lékařské, ale například i v oblastech finančnictví, stavebnictví a ostatně i práva. Připravované nařízení AI Act na tento problém pamatuje a stanoví, že ve vyjmenovaných regulovaných odvětvích musí umělá inteligence splnit právní podmínky stanovené pro dané odvětví.

V takových případech AI Act klade na umělou inteligence další požadavky (nad rámec požadavků daného odvětví), zejména v otázkách bezpečnosti, kontroly a kvality vstupů,“ shrnuje závěrem Patrick Boháček.

Zdroj: Chat GPTThe AI Act


Máte k článku připomínku? Napište nám

Sdílet článek

Mohlo by se vám líbit








Všechny nejnovější zprávy

doporučujeme