Přejít k hlavnímu obsahu

Vědci si zase zahrávají: záhadný projekt má naučit AI předvídat lidská rozhodnutí na základě morálky

Jiří Palyza 30.11.2024
info ikonka
Zdroj: Midjourney (vygenerováno pomocí umělé inteligence)

Nejnovější projekt, podporovaný OpenAI, je prozatím opředen tajemstvím. Na přímé dotazy společnost odkazuje na zveřejněnou tiskovou zprávu a hlavní řešitel projektu pouze suše konstatoval, že o práci nebude moc mluvit. O co tak tajného se jedná?

Kapitoly článku

Zvládne AI něco tak komplikovaného, jako jsou lidské morální principy?

Někdejší start-up, dnes již obecně známá společnost OpenAI, financuje projektový grant, který čerpá Dukeova univerzita ve státě Severní Karolina. Je určen na podporu studie s názvem "Research AI Morality", což by se dalo volně přeložit jako výzkum morálky umělé inteligence.

Podle tiskové zprávy, která byla v souvislosti s projektem vydána, je cílem studie vytvořit algoritmy pro umělou inteligenci k předvídání lidských úsudků a rozhodnutí, založených na morálních aspektech.

Různé scénáře zahrnují konfliktní situace, které se vyskytují v různých oblastech: například medicíně, právu a podnikání. Zdaleka však není jasné, zda je vůbec tak složitý základ rozhodování, jako jsou morální hodnoty, v možnostech dnešních technologií.

Mohlo by vás zajímat

Vedoucí výzkumníci nemohou o projektu hovořit

Výzkum není precedentem svého druhu. Už v roce 2021 vytvořila organizace Allen Institute for AI nástroj "Ask Delphi", který měl poskytovat eticky správná doporučení. Základní morální dilemata posuzoval dobře – bot například „věděl“, že podvádět při zkoušce je špatné. Ale stačilo jen lehce přeformulovat a upravit otázky, aby Delphi schválil prakticky cokoli, včetně dušení kojenců.

Důvody hledejme ve způsobu fungování moderních systémů umělé inteligence. Modely strojového učení jsou statistické systémy. Jsou vycvičeny na spoustě příkladů z celého webu a učí se na nich vzorce, aby mohly předpovídat vhodné fráze a odpovědi: například že výraz „koho“ často předchází formulaci „může se týkat“, nebo "komu" může souviset s "bude určeno".

Umělá inteligence nemá pochopení pro etické principy, ani pro uvažování a emoce, které se podílejí na rozhodování na základě morálky. Proto má AI tendenci papouškovat hodnoty západních, vzdělaných a průmyslově vyspělých zemí – na webu, a tedy i v tréninkových datech, převažují články podporující tyto názory.

Mohlo by vás zajímat

Umělá inteligence si v mnoha případech osvojuje mnoho předsudků, které přesahují příklon k západní kultuře

Výzva, která stojí před OpenAI – a výzkumníky, které podporuje – je o to těžší, že morálka je ze své podstaty subjektivní. Filozofové diskutují o výhodách různých etických teorií již tisíce let a žádný univerzálně použitelný rámec není na dohled.

Zatímco Claude dává přednost zaměření na absolutní morální pravidla, ChatGPT se přiklání spíš k upřednostňování největšího dobra pro největší počet lidí. Je jeden z nich lepší než druhý? To záleží na tom, koho se zeptáte.

Algoritmus pro předvídání lidských úsudků, založených na morálních hodnotách, bude muset toto vše zohlednit. To je velmi vysoká laťka, kterou je třeba překonat – za předpokladu, že takový algoritmus je vůbec možné sestavit.

Zdroj: TechCrunch


Máte k článku připomínku? Napište nám

Sdílet článek

Mohlo by se vám líbit








Všechny nejnovější zprávy

doporučujeme