Celá řada významných technologických odborníků a lídrů, včetně ředitele Tesly Elona Muska a spoluzakladatele Applu Steva Wozniaka, vyzvala k moratoriu na rychlý vývoj nových výkonných nástrojů umělé inteligence.
V otevřeném dopisu signatáři vyzývají k alespoň šestiměsíční pauze na rozmyšlenou. Toto zmrazení vývoje by mělo dát všem, kdo se pohybují v technologické branži, čas na stanovení bezpečnostních standardů pro vývoj umělé inteligence a odvrácení možných škod, které by mohly způsobit nejrizikovější technologie s jejím uplatněním.
Výzvu zveřejnil neziskový institut Future of Life, v němž Elon Musk působí v roli externího poradce. Kromě šéfa Tesly manifest podepsalo více než dalších tisíc lidí, včetně Emanda Mostaquea, šéfa společnosti Stability AI. Přidali se i vývojáři z dceřiné společnosti Googlu, DeepMind, která se také zabývá umělou inteligencí. Mezi podporovateli jsou i průkopníci umělé inteligence Stuart Russel, Gary Marcus a Yoshua Bengio.
Technologičtí experti varují před riziky ChatGPT a dalších aplikací umělé inteligence
Řada technologických odborníků by si přála pozastavení vývoje umělé inteligence alespoň na půl roku. | Zdroj: Jonathan Kemper/Unsplash
Autoři manifestu varují před riziky takzvané generativní umělé inteligence, jakou je například textový robot ChatGPT nebo generátor obrázků Dall-E od OpenAI. Tyto nástroje dokáží simulovat lidskou interakci a generovat texty nebo obrázky na základě několika klíčových slov.
Musk původně spoluzaložil start-up OpenAI, který byl neziskovou organizací a zabývá se vývojem umělé inteligence. Nicméně poté, kdy šéf Sam Altman zvítězil se svými plány na podporu vývoje softwaru AI prostřednictvím rozsáhlé finanční a technické spolupráce zejména s Microsoftem, se z těchto aktivit stáhl.
Od uvolnění ChatGPT v listopadu loňského roku je téma umělé inteligence v centru pozornosti veřejnosti. Vývoj v této oblasti také donutil Google opustit její poněkud restriktivní přístup ke zveřejňování nástrojů umělé inteligence a proti nástupu OpenAI a jejího ChatGPT postavila vlastního chatovacího robota Barda.
Utržení ze řetězu
| Zdroj: D koi/Unsplash
V otevřeném dopise experti také varují před tím, že v průběhu překotného vývoje umělé inteligence nedochází k plánování a řízení, a že laboratoře umělé inteligence v posledních měsících nekontrolovaně závodí ve vývoji a nasazování stále výkonnějších digitálních mozků. Riziko je v tom, že je nikdo, včetně jejich tvůrců, nedokáže pochopit, předvídat nebo spolehlivě kontrolovat.
Zajímavé je i to, že otevřený dopis nepodepsal nikdo z OpenAI, která stojí za GPT-4. Také nikdo z firmy Anthropic, jejíž tým vznikl vyčleněním z OpenAI ve snaze vytvořit "bezpečnějšího" chatbota s umělou inteligencí.
Ve svém středečním rozhovoru pro Wall Street Journal šéf OpenAI, Sam Altman, uvedl, že firma ještě nezačala s výcvikem GPT-5. Také poznamenal, že OpenAI dlouhodobě klade při vývoji důraz na bezpečnost a před spuštěním GPT-4 strávila přes půl roku bezpečnostními testy.
Špatné funkce a chyby umělé inteligence mohou mít fatální následky
Zaznívají i hlasy, které poukazují na otevřený dopis i jako na jasnou iniciativu pro právní regulaci umělé inteligence na politické úrovni. Jedině tak se údajně podaří zvládnout rizika, která jsou s obzvlášť výkonnými systémy umělé inteligence spojena.
Odborníci také varují před záplavou propagandy a falešných zpráv, ztrátou mnoha pracovních míst a celkové kontroly.
Také je zřejmé, že systémy umělé inteligence se stále častěji využívají v medicíně, vozidlech a dalších oblastech, kde jsou kritické z hlediska bezpečnosti. Chyby zde mohou mít zásadní následky. Proto jsou podle některých expertů nutná zákonná opatření. Ta by mohla vytvořit důvěru a podporovat inovativní nabídky.
Zdroj: TechCrunch