Umělá inteligence v kontextu odpovědného obchodního chování
Rozvoj nových technologií v oblasti umělé inteligence (artificial intelligence – AI) v posledních letech se stále výrazněji projevuje i v ekonomické oblasti. Ačkoliv může použití AI mít pozitivní vliv na rozvoj odpovědného obchodního chování (responsible business conduct – RBC), stejně tak představuje rizika vůči dodržování lidských práv, ochraně životního prostředí a jiným oblastem chráněných Směrnicí OECD pro nadnárodní podniky, která představuje základní dokument pro RBC.
AI např. v blízké budoucnosti zlepší bezpečnost při rizikové práci pomocí automatizace, „chytrá” města s „chytře” řízenou dopravou by měla přispět ke snížení produkce skleníkových plynů. Na druhou stranu zapojení AI do výběru zaměstnanců nebo při dodržování práva může vést k diskriminačnímu vyhodnocování v závislosti na dostupných datech a algoritmech. Tato závislost AI na osobních informacích a velkém objemu dat má také negativní dopad na ochranu soukromí.
V neposlední řadě si lze představit řadu rizik, která s sebou ponese využívání automatických bojových systémů. Negativní dopady na lidská práva na základě použití AI mohou být samozřejmě častokrát výsledkem podnikatelských aktivit. To si uvědomují jak vlády,1 mezinárodní organizace,2 tak i samotné obchodní společnosti.3 Projevuje se to především vydáváním zásad a principů, na kterých mají být aplikace AI založeny.
Takové zásady lze shrnout do osmi základní okruhů: soukromí, odpovědnost, transparentnost a pochopitelnost, spravedlnost a nediskriminace, lidská kontrola technologií, odpovědnost profesionála a podpora lidských hodnot. Podle jedné studie 64 % z analyzovaných souborů principů a zásad pro AI obsahovalo odkaz na lidská práva a 14 % z nich mělo mezinárodní lidská práva jako základní hodnotu, ke které má používání AI směřovat.4
Velké digitální společnosti jsou v tomto směru obzvláště aktivní a některé z nich již zavádějí do praxe i konkrétní opatření, která mají k dodržování těchto zásad přispívat. V roce 2018 provedl např. Microsoft první hodnocení dopadů AI na lidská práva, když použil metodu obvyklou pro posuzování dopadů určitého produktu nebo činnosti na práva spotřebitelů nebo jiných externích aktérů. Microsoft také jako jeden z prvních vytvořil interní mechanismus pro identifikaci a předcházení rizik, známý jako AETHER Committee. Jiné společnosti se rozhodly jít cestou široké spolupráce s externími partnery, se kterými následně konzultují, jaké negativní dopady může mít zavádění určité technologie a jak je zmírnit (např. Partnership on AI).
Autor článku: Ondřej Svoboda
_______________________________________________________________________________________________________________________________________
1 Např. Spojené státy americké, Velká Británie, Francie, Německo, Čína.
2 Např. Organizace pro hospodářskou spolupráci a rozvoj, Evropská unie.
3 Např. Google, Microsoft, Intel.
4 Jessica Fjeld, Nele Achten, Hannah Hilligoss, Adam Nagy, Madhulika Srikumar, Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI, Berkman Klein Center Research Publication No. 2020-1
—————
Kontakt
UNIVERZITA KARLOVA
Právnická fakulta,
Výzkumné centrum
pro lidská práva
nám. Curieových 7
116 40 Praha 1
Prof. JUDr. Pavel Šturma, DrSc.
koordinátor Centra
Tel.: +420 221 005 439
vclp@centrum.cz
United Nation Web TV:
Prof. Pavel Šturma přednáší svůj příspěvek na téma "Succession of States and State Responsibility":
https://webtv.un.org/meetings-events/human-rights-council/forum-on-business-and-human-rights/watch/pavel-Šturma-on-succession-of-states-and-state-responsibility/5823435342001/?term=&lan=english
Video o Radě Evropy
a právního státu: