Stručná odpoveď: UI zašla priďaleko, keď sa používa pri rozhodovaní s vysokými stávkami, sledovaní alebo presviedčaní bez pevných obmedzení, informovaného súhlasu a skutočného práva na odvolanie. Opäť prekračuje hranicu, keď deepfaky a škálovateľné podvody spôsobujú, že dôvera sa javí ako hazard. Ak ľudia nevedia rozoznať, že UI zohrala nejakú úlohu, nedokážu pochopiť, prečo rozhodnutie dopadlo tak, ako dopadlo, alebo sa nemôžu odhlásiť, už je to priďaleko.
Kľúčové poznatky:
Hranice: Definujú, čo systém nemôže robiť, najmä pri vysokej neistote.
Zodpovednosť: Zabezpečiť, aby ľudia mohli prehodnotiť výsledky bez sankcií alebo pascí pod časovým tlakom.
Transparentnosť: Povedzte ľuďom, kedy je zapojená umelá inteligencia a prečo dospela k svojim rozhodnutiam.
Napadnuteľnosť: Poskytnite rýchle a funkčné spôsoby odvolania a jasné spôsoby opravy chybných údajov.
Odolnosť proti zneužitiu: Pridajte pôvod, limity sadzieb a kontroly na obmedzenie podvodov a zneužívania.
„Zašla umelá inteligencia priďaleko?“
Zvláštne na tom je, že prekročenie hranice nie je vždy zrejmé. Niekedy je to hlučné a okázalé, ako podvod s deepfake. ( FTC , FBI ) Inokedy je to tiché – automatizované rozhodnutie, ktoré vám bez akéhokoľvek vysvetlenia naruší život a vy si ani neuvedomíte, že ste boli „skórovaní“. ( UK ICO , GDPR čl. 22 )
Takže… Zašla umelá inteligencia priďaleko? Na niektorých miestach áno. Inde nezašla dostatočne ďaleko – pretože sa používa bez nepríjemných, ale nevyhnutných bezpečnostných zábran, vďaka ktorým sa nástroje správajú ako nástroje namiesto ruletových kolies s priateľským používateľským rozhraním. 🎰🙂 ( NIST AI RMF 1.0 , zákon EÚ o umelej inteligencii )
Články, ktoré by ste si mohli prečítať po tomto:
🔗 Prečo môže byť umelá inteligencia škodlivá pre spoločnosť
Kľúčové sociálne riziká: zaujatosť, pracovné miesta, súkromie a koncentrácia moci.
🔗 Je umelá inteligencia škodlivá pre životné prostredie? Skryté dopady
Ako školenia, dátové centrá a spotreba energie zvyšujú emisie.
🔗 Je AI dobrá alebo zlá? Výhody a nevýhody
Vyvážený prehľad výhod, rizík a kompromisov v reálnom svete.
🔗 Prečo je umelá inteligencia považovaná za zlou: temná stránka
Skúma zneužívanie, manipuláciu, bezpečnostné hrozby a etické obavy.
Čo ľudia myslia, keď hovoria „Zašla umelá inteligencia priďaleko?“ 😬
Väčšina ľudí sa nepýta, či je umelá inteligencia „vnímajúca“ alebo „preberá kontrolu“. Poukazujú na jedno z týchto:
-
Umelá inteligencia sa používa tam, kde by sa používať nemala. (Najmä pri rozhodnutiach s vysokými stávkami.) ( Príloha III k zákonu EÚ o umelej inteligencii , článok 22 GDPR )
-
Umelá inteligencia sa používa bez súhlasu. (Vaše údaje, váš hlas, vaša tvár... prekvapenie.) ( UK ICO , GDPR čl. 5 )
-
Umelá inteligencia sa stáva príliš dobrou v manipulácii s pozornosťou. (Kanály + personalizácia + automatizácia = lepkavé.) ( Zásady OECD pre umelú inteligenciu )
-
Vďaka umelej inteligencii sa pravda javí ako dobrovoľná. (Deepfakes, falošné recenzie, syntetickí „experti“.) ( Európska komisia , FTC , C2PA )
-
UI sústreďuje moc. (Niekoľko systémov formuje to, čo každý vidí a dokáže.) ( UK CMA )
To je jadro otázky „Zašla umelá inteligencia priďaleko?“ Nie je to jeden jediný okamih. Je to hromada stimulov, skratiek a myslenia typu „napravíme to neskôr“ – čo, povedzme si úprimne, má tendenciu znamenať „napravíme to potom, čo sa niekto zraní“. 😑

Nie až tak tajná pravda: UI je multiplikátor, nie morálny činiteľ 🔧✨
UI sa neprebudí a nerozhodne sa byť škodlivá. Ľudia a organizácie ju cielene využívajú. Ale znásobuje všetko, čo jej dáte do tela:
-
Užitočný zámer sa stáva mimoriadne užitočným (preklad, prístupnosť, sumarizácia, rozpoznávanie medicínskych vzorcov).
-
Nedbalý zámer sa stáva masívne nedbalým (skreslenie vo veľkom meradle, automatizácia chýb).
-
Zlý úmysel sa stáva mimoriadne zlým (podvod, obťažovanie, propaganda, vydávanie sa za inú osobu).
Je to ako dať batoľaťu megafón. Niekedy batoľa spieva... niekedy batoľa kričí priamo do vašej duše. Nie je to dokonalá metafora - trochu hlúpe - ale pointa je vystihnutá 😅📢.
Čo robí dobrú verziu umelej inteligencie v každodennom prostredí? ✅🤝
„Dobrá verzia“ umelej inteligencie nie je definovaná tým, aká je inteligentná. Je definovaná tým, ako dobre sa správa pod tlakom, neistotou a pokušením (a ľudia sú veľmi lákaní lacnou automatizáciou). ( NIST AI RMF 1.0 , OECD )
Tu je to, čo hľadám, keď niekto tvrdí, že používanie umelej inteligencie je zodpovedné za to:
1) Jasné hranice
-
Čo je systému dovolené robiť?
-
Čo je výslovne zakázané robiť?
-
Čo sa stane, keď si nie je istý?
2) Ľudská zodpovednosť, ktorá je skutočná, nie dekoratívna
Ľudské „prehodnotenie“ výsledkov má význam iba vtedy, ak:
-
rozumejú tomu, čo hodnotia, a
-
môžu to prepísať bez toho, aby boli potrestaní za spomalenie vecí.
3) Vysvetliteľnosť na správnej úrovni
Nie každý potrebuje matematiku. Ľudia potrebujú:
-
hlavné dôvody rozhodnutia,
-
aké údaje boli použité,
-
ako sa odvolať, opraviť alebo odhlásiť. ( UK ICO )
4) Merateľný výkon – vrátane poruchových režimov
Nielen „presnosť“, ale:
-
na kom to zlyhá,
-
ako často potichu zlyháva,
-
čo sa stane, keď sa svet zmení. ( NIST AI RMF 1.0 )
5) Súkromie a súhlas, ktoré nie sú „skryté v nastaveniach“
Ak súhlas vyžaduje hľadanie pokladu v menu… nie je to súhlas. Je to medzera v legislatíve s ďalšími krokmi 😐🧾. ( GDPR článok 5 , UK ICO )
Porovnávacia tabuľka: praktické spôsoby, ako zabrániť umelej inteligencii, aby zašla priďaleko 🧰📊
Nižšie sú uvedené „najlepšie možnosti“ v tom zmysle, že ide o bežné zábrany alebo operačné nástroje, ktoré menia výsledky (nielen vibrácie).
| Nástroj / možnosť | Publikum | Cena | Prečo to funguje |
|---|---|---|---|
| Preskúmanie interakcie človeka ( zákon EÚ o umelej inteligencii ) | Tímy, ktoré robia veľmi riskantné rozhodnutia | ££ (časové náklady) | Spomaľuje zlú automatizáciu. Ľudia si tiež môžu všimnúť zvláštne hraničné prípady, niekedy… |
| Proces odvolania sa proti rozhodnutiu ( článok 22 GDPR ) | Používatelia ovplyvnení rozhodnutiami umelej inteligencie | Voľne | Pridáva riadny proces. Ľudia môžu opraviť nesprávne údaje – znie to jednoducho, pretože to je jednoducho |
| Záznamy auditu + sledovateľnosť ( NIST SP 800-53 ) | Súlad, prevádzka, bezpečnosť | £-££ | Umožňuje vám odpovedať na otázku „čo sa stalo?“ po neúspechu namiesto pokrčenia plecami |
| Vyhodnotenie modelu + testovanie skreslenia ( NIST AI RMF 1.0 ) | Produktové + rizikové tímy | sa veľmi líši | Včas odhalí predvídateľné poškodenie. Nie je dokonalé, ale lepšie ako hádať |
| Testovanie červeným tímom ( profil NIST GenAI ) | Bezpečnosť + ľudia z oblasti bezpečnosti | £££ | Simuluje zneužitie skôr, ako to urobia skutoční útočníci. Nepríjemné, ale stojí za to 😬 |
| Minimalizácia dát ( UK ICO ) | Úprimne povedané, všetci | £ | Menej dát = menej neporiadku. Tiež menej únikov, menej trápnych rozhovorov |
| Signály pôvodu obsahu ( C2PA ) | Platformy, médiá, používatelia | £-££ | Pomáha overiť, či „toto vytvoril človek?“ – nie je to úplne spoľahlivé, ale znižuje chaos |
| Obmedzenia rýchlosti + kontroly prístupu ( OWASP ) | Poskytovatelia umelej inteligencie + podniky | £ | Okamžite zastaví šírenie zneužívania. Ako spomaľovací prah pre zlých aktérov |
Áno, stôl je trochu nerovný. Taký je život. 🙂
UI pri rozhodovaní s vysokými stávkami: keď to zájde priďaleko 🏥🏦⚖️
Tu sa veci rýchlo zhoršia.
Umelá inteligencia v zdravotníctve , financiách , bývaní , zamestnanosti , vzdelávaní , imigrácii , trestnom súdnictve – ide o systémy, kde: ( príloha III k zákonu EÚ o umelej inteligencii , FDA )
-
chyba môže niekoho stáť peniaze, slobodu, dôstojnosť alebo bezpečnosť,
-
a postihnutá osoba má často obmedzenú moc brániť sa.
Veľkým rizikom nie je „AI robí chyby“. Veľkým rizikom je, že chyby AI sa stanú politikou . ( NIST AI RMF 1.0 )
Ako tu vyzerá „príliš ďaleko“
-
Automatizované rozhodnutia bez vysvetlenia: „počítač hovorí nie.“ ( UK ICO )
-
„Skóre rizika“ sa považovalo za fakty, nie za odhady.
-
Ľudia, ktorí nedokážu ovplyvniť výsledky, pretože manažment chce rýchlosť.
-
Údaje, ktoré sú neupravené, skreslené, zastarané alebo jednoducho nesprávne.
Čo by malo byť neobchodovateľné
-
Právo na odvolanie (rýchle, zrozumiteľné, nie bludisko). ( GDPR čl. 22 , UK ICO )
-
Právo vedieť, že do toho bola zapojená umelá inteligencia. ( Európska komisia )
-
Ľudské posúdenie z hľadiska následných výsledkov. ( NIST AI RMF 1.0 )
-
Kontrola kvality údajov – pretože „smeti dnu, smeti von“ je stále bolestne pravdivá pravda.
Ak sa snažíte nakresliť jasnú hranicu, tu je jedna:
Ak systém umelej inteligencie dokáže podstatne zmeniť niečí život, potrebuje rovnakú vážnosť, akú očakávame od iných foriem autority. Žiadne „beta testovanie“ na ľuďoch, ktorí sa nezaregistrovali. 🚫
Deepfakes, podvody a pomalá smrť „verím svojim očiam“ 👀🧨
Toto je tá časť, ktorá spôsobuje, že každodenný život sa zdá byť... klzký.
Keď umelá inteligencia dokáže generovať:
-
hlasová správa, ktorá znie ako od vášho rodinného príslušníka ( FTC , FBI )
-
video verejne známej osoby, ktorá niečo „hovorí“,
-
záplava falošných recenzií, ktoré vyzerajú dostatočne autenticky ( FTC )
-
falošný profil na LinkedIn s falošnou pracovnou históriou a falošnými priateľmi…
...nielenže to umožňuje podvody. Oslabuje to sociálne lepidlo, ktoré umožňuje koordináciu cudzích ľudí. A spoločnosť funguje na koordinácii cudzích ľudí. 😵💫
„Príliš ďaleko“ nie je len falošný obsah
Je to tá asymetria :
-
Je lacné generovať klamstvá.
-
Overovanie pravdy je drahé a pomalé.
-
A väčšina ľudí je zaneprázdnená, unavená a roluje.
Čo pomáha (trochu)
-
Značky pôvodu médií. ( C2PA )
-
Trenie o viralitu – spomaľovanie okamžitého masového zdieľania.
-
Lepšie overovanie totožnosti tam, kde je to dôležité (financie, vládne služby).
-
Základné návyky „overovania mimo pásma“ pre jednotlivcov (spätné volanie, použitie kódového slova, potvrdenie cez iný kanál). ( FTC )
Nie očarujúce. Ale ani bezpečnostné pásy nie sú, a k tým som osobne dosť pripútaný. 🚗
Plíživý dohľad: keď umelá inteligencia potichu premení všetko na senzor 📷🫥
Toto nevybuchne ako deepfake. Len sa to šíri.
Umelá inteligencia uľahčuje:
-
identifikovať tváre v dave ( zákon EÚ o umelej inteligencii , NIST FRVT )
-
sledovať vzorce pohybu,
-
odvodiť emócie z videa (často zle, ale s istotou), ( Barrett a kol., 2019 , Zákon EÚ o umelej inteligencii )
-
predpovedať „riziko“ na základe správania... alebo atmosféry vášho okolia.
A aj keď je nepresná, stále môže byť škodlivá, pretože môže odôvodniť zásah. Nesprávna predpoveď môže stále vyvolať skutočné následky.
Nepríjemná časť
Dohľad s využitím umelej inteligencie sa často prejavuje v bezpečnostnom príbehu:
-
„Je to na prevenciu podvodov.“
-
„Je to kvôli bezpečnosti.“
-
„Je to pre používateľskú skúsenosť.“
Niekedy je to pravda. Niekedy je to tiež pohodlná výhovorka na budovanie systémov, ktoré sa neskôr veľmi ťažko demontujú. Napríklad inštalácia jednosmerných dverí vo vlastnom dome, pretože sa v danom čase zdali efektívne. Opäť, nie je to dokonalá metafora - trochu smiešne - ale cítite to. 🚪😅
Ako tu vyzerá „dobré“
-
Prísne obmedzenia uchovávania a zdieľania.
-
Zrušiť odhlásenia.
-
Úzke prípady použitia.
-
Nezávislý dohľad.
-
Žiadna „detekcia emócií“ sa nepoužíva na trestanie ani na kontrolu prístupu. Prosím. 🙃 ( Zákon EÚ o umelej inteligencii )
Práca, kreativita a problém tichého odvykania od kvalifikácie 🧑💻🎨
Tu sa debata stáva osobnou, pretože sa dotýka identity.
Umelá inteligencia môže zvýšiť produktivitu ľudí. Môže tiež dať ľuďom pocit nahraditeľnosti. Obe môžu byť pravdivé súčasne, v tom istom týždni. ( OECD , WEF )
Kde je to skutočne užitočné
-
Písanie bežných textov, aby sa ľudia mohli sústrediť na myslenie.
-
Pomoc s kódovaním opakujúcich sa vzorov.
-
Nástroje na zjednodušenie ovládania (titulky, zhrnutia, preklad).
-
Brainstorming, keď sa zasekáte.
Kde to zachádza priďaleko
-
Nahradenie rolí bez plánov prechodu.
-
Využívanie umelej inteligencie na zníženie produkcie a zároveň sploštenie miezd.
-
Zaobchádzanie s kreatívnou prácou ako s nekonečnými bezplatnými tréningovými dátami a následné pokrčenie plecami. ( Úrad pre autorské práva USA , GOV.UK Spojeného kráľovstva )
-
Zmiznutie juniorských pozícií – čo znie efektívne, kým si neuvedomíte, že ste práve spálili rebríček, po ktorom musia budúci experti vyliezť.
Odstraňovanie kvalifikácie je nenápadné. Nevšímate si to zo dňa na deň. Potom si jedného dňa uvedomíte, že si nikto v tíme nepamätá, ako daná vec funguje bez asistenta. A ak sa asistent mýli, mýlite sa jednoducho všetci spolu... čo je taká nočná mora. 😬
Koncentrácia moci: kto môže nastavovať predvolené hodnoty? 🏢⚡
Aj keď je umelá inteligencia „neutrálna“ (čo nie je), ktokoľvek ju ovláda, môže ovplyvniť:
-
aké informácie sú ľahko dostupné,
-
čo sa propaguje alebo zamlčí,
-
aký jazyk je povolený,
-
aké správanie je podporované.
A keďže systémy umelej inteligencie môžu byť drahé na výstavbu a prevádzku, moc má tendenciu sa koncentrovať. To nie je konšpirácia. To je ekonomika s technologickou mikinou. ( UK CMA )
Moment „príliš ďaleko“
Keď sa z neúspechov stane neviditeľný zákon:
-
nevieš, čo sa filtruje,
-
nemôžeš preskúmať logiku,
-
a realisticky sa nemôžete odhlásiť bez toho, aby ste stratili prístup k práci, komunite alebo základným službám.
Zdravý ekosystém potrebuje konkurenciu, transparentnosť a skutočný výber používateľov. Inak si v podstate prenajímate realitu. 😵♂️
Praktický kontrolný zoznam: ako zistiť, či umelá inteligencia vo vašom svete zachádza priďaleko 🧾🔍
Tu je zoznam, ktorý používam na kontrolu (a áno, je nedokonalý):
Ak ste jednotlivec
-
Viem rozpoznať, kedy interagujem s umelou inteligenciou. ( Európska komisia )
-
Tento systém ma núti zdieľať príliš veľa.
-
Nevadilo by mi, keby som sa s výstupom vysporiadal uveriteľným spôsobom, ak by bol nesprávny.
-
Ak by ma niekto s týmto podviedol, platforma by mi pomohla... alebo by len pokrčila plecami.
Ak ste firma alebo tím
-
Používame umelú inteligenciu, pretože je cenná, alebo preto, že je trendová a manažment je nepokojný.
-
Vieme, akých údajov systém spracováva.
-
Dotknutý používateľ sa môže odvolať proti výsledkom. ( UK ICO )
-
Ľudia majú právomoc prepísať tento model.
-
Máme plány reakcie na incidenty v prípade zlyhaní umelej inteligencie.
-
Monitorujeme drift, zneužitie a nezvyčajné okrajové prípady.
Ak ste na viacero z nich odpovedali „nie“, neznamená to, že ste zlí. Znamená to, že ste v normálnom ľudskom stave „odoslali sme to a dúfali sme“. Ale dúfať nie je stratégia, žiaľ. 😅
Záverečné poznámky 🧠✅
Takže… Zašla umelá inteligencia priďaleko?
Zašla priďaleko tam, kde sa používa bez zodpovednosti , najmä pri rozhodovaní s vysokými stávkami, masovom presviedčaní a sledovaní. Zašla tiež priďaleko tam, kde narúša dôveru – pretože akonáhle sa dôvera naruší, všetko sa stane drahším a spoločensky nepriateľskejším. ( NIST AI RMF 1.0 , EÚ zákon o umelej inteligencii )
Ale umelá inteligencia nie je vo svojej podstate odsúdená na zánik ani inherentne dokonalá. Je to silný multiplikátor. Otázkou je, či budujeme ochranné zábradlia rovnako agresívne, ako budujeme samotné schopnosti.
Stručné zhrnutie:
-
Umelá inteligencia je ako nástroj v poriadku.
-
Je to nebezpečné ako nezodpovedná autorita.
-
Ak sa niekto nemôže odvolať, nerozumie alebo sa nemôže odhlásiť – tam sa začína „príliš ďaleko“. 🚦 ( GDPR čl. 22 , UK ICO )
Často kladené otázky
Zašla umelá inteligencia v každodennom živote priďaleko?
Na mnohých miestach zašla umelá inteligencia priďaleko, pretože sa začala vkrádať do rozhodnutí a interakcií bez jasných hraníc alebo zodpovednosti. Problém len zriedka spočíva v tom, že umelá inteligencia „existuje“; ide o to, že je potichu vpletaná do náboru, zdravotnej starostlivosti, zákazníckeho servisu a informačných kanálov s malým dohľadom. Keď ľudia nevedia rozoznať, že ide o umelú inteligenciu, nemôžu spochybniť výsledky alebo sa nemôžu odhlásiť, prestáva sa javiť ako nástroj a začína sa javiť ako systém.
Ako vyzerá „zachádzanie umelej inteligencie priďaleko“ pri rozhodnutiach s vysokými stávkami?
Zdá sa, že umelá inteligencia sa používa v zdravotníctve, financiách, bývaní, zamestnanosti, vzdelávaní, imigrácii alebo trestnom súdnictve bez silných ochranných opatrení. Ústredným problémom nie je to, že modely robia chyby; ide o to, že tieto chyby sa zatvrdzujú v politike a je ťažké ich spochybniť. Rozhodnutia typu „počítač hovorí nie“ s chabými vysvetleniami a bez zmysluplných odvolaní sú miestom, kde sa škoda rýchlo zvyšuje.
Ako zistím, či sa ma týka automatizované rozhodnutie a čo môžem urobiť?
Bežným znakom je náhly výsledok, ktorý si neviete vysvetliť: odmietnutie, obmedzenie alebo „skóre rizika“ bez jasného dôvodu. Mnohé systémy by mali zverejniť, kedy umelá inteligencia zohrala podstatnú úlohu, a mali by ste byť schopní požiadať o hlavné dôvody rozhodnutia a kroky na odvolanie. V praxi požiadajte o ľudské preskúmanie, opravte všetky nesprávne údaje a presadzujte jednoduchý spôsob odhlásenia.
Zašla umelá inteligencia priďaleko, pokiaľ ide o súkromie, súhlas a používanie údajov?
Často sa to stáva, keď sa súhlas stane honbou za pokladom a zber údajov sa rozšíri „pre istotu“. Hlavným bodom článku je, že súkromie a súhlas nemajú veľkú váhu, ak sú skryté v prostredí alebo vynútené nejasnými pojmami. Zdravším prístupom je minimalizácia údajov: zhromažďovať menej, uchovávať menej a robiť rozhodnutia jednoznačnými, aby ľudia neboli neskôr prekvapení.
Ako deepfake a podvody s umelou inteligenciou menia význam pojmu „dôvera“ online?
Vďaka nim sa pravda javí ako voliteľná tým, že znižujú náklady na vytváranie presvedčivých falošných hlasov, videí, recenzií a identít. Problémom je asymetria: vytváranie lží je lacné, zatiaľ čo overovanie pravdy je pomalé a únavné. Praktické obranné opatrenia zahŕňajú signály o pôvode pre médiá, spomalenie virálneho zdieľania, prísnejšie kontroly identity tam, kde je to dôležité, a zvyky „overovania mimo pásma“, ako je spätné volanie alebo používanie zdieľaného kódového slova.
Aké sú najpraktickejšie zábrany, aby sa zabránilo umelej inteligencii zájsť priďaleko?
Medzi ochranné opatrenia, ktoré menia výsledky, patrí skutočná kontrola s ľudskou prítomnosťou v prípade kritických situácií, jasné procesy odvolania a audítorské protokoly, ktoré dokážu po zlyhaniach odpovedať na otázku „čo sa stalo?“. Vyhodnocovanie modelov a testovanie skreslenia dokážu odhaliť predvídateľné škody skôr, zatiaľ čo testovanie červených tímov simuluje zneužitie skôr, ako to urobia útočníci. Obmedzenia rýchlosti a kontroly prístupu pomáhajú predchádzať okamžitému rozšíreniu zneužívania a minimalizácia údajov znižuje riziko naprieč všetkými oblasťami.
Kedy prekročí hranicu sledovanie riadené umelou inteligenciou?
Prekračuje sa to, keď sa všetko automaticky zmení na senzor: rozpoznávanie tvárí v davoch, sledovanie pohybových vzorcov alebo sebavedomá „detekcia emócií“ používaná na trestanie alebo stráženie prístupu. Dokonca aj nepresné systémy môžu spôsobiť vážnu ujmu, ak odôvodňujú intervencie alebo odmietnutie služieb. Dobrá prax vyzerá ako úzke prípady použitia, prísne limity uchovávania údajov, zmysluplné odmietnutia, nezávislý dohľad a pevné „nie“ neistým úsudkom založeným na emóciách.
Robí umelá inteligencia ľudí produktívnejšími – alebo potichu znižuje kvalifikáciu v práci?
Obe môžu byť pravdivé súčasne a práve v tomto napätí je pointa. UI môže pomôcť s rutinným kreslením, opakujúcimi sa vzormi kódovania a dostupnosťou, čím umožní ľuďom sústrediť sa na myslenie na vyššej úrovni. Zachádza to priďaleko, keď nahrádza role bez prechodných plánov, znižuje mzdy, zaobchádza s kreatívnou prácou ako s bezplatnými tréningovými dátami alebo odstraňuje juniorské role, ktoré budujú budúce odborné znalosti. Znižovanie kvalifikácie zostáva nenápadné, až kým tímy nedokážu fungovať bez asistenta.
Referencie
-
Národný inštitút pre štandardy a technológie (NIST) – Rámec riadenia rizík umelej inteligencie (AI RMF 1.0) – nist.gov
-
Európska únia - Zákon EÚ o umelej inteligencii (Nariadenie (EÚ) 2024/1689) - Úradný vestník (angličtina) - europa.eu
-
Európska komisia – Regulačný rámec pre umelú inteligenciu (stránka s politikou zákona EÚ o umelej inteligencii) – europa.eu
-
Servisná linka k zákonu EÚ o umelej inteligencii – príloha III (Vysokorizikové systémy umelej inteligencie) – europa.eu
-
Európska únia – Pravidlá pre dôveryhodnú umelú inteligenciu v EÚ (zhrnutie zákona EÚ o umelej inteligencii) – europa.eu
-
Úrad komisára pre informácie Spojeného kráľovstva (ICO) - Čo je automatizované individuálne rozhodovanie a profilovanie? - ico.org.uk
-
Úrad komisára pre informácie Spojeného kráľovstva (ICO) - Čo hovorí britské nariadenie GDPR o automatizovanom rozhodovaní a profilovaní? - ico.org.uk
-
Úrad komisára pre informácie Spojeného kráľovstva (ICO) – Automatizované rozhodovanie a profilovanie (centrum usmernení) – ico.org.uk
-
Úrad komisára pre informácie Spojeného kráľovstva (ICO) - Minimalizácia údajov (usmernenia k zásadám GDPR Spojeného kráľovstva) - ico.org.uk
-
GDPR-info.eu - Článok 22 GDPR - gdpr-info.eu
-
GDPR-info.eu - Článok 5 GDPR - gdpr-info.eu
-
Federálna obchodná komisia USA (FTC) - Podvodníci používajú umelú inteligenciu na vylepšenie svojich núdzových rodinných programov - ftc.gov
-
Federálna obchodná komisia USA (FTC) – Podvodníci používajú falošné núdzové situácie na krádež vašich peňazí – ftc.gov
-
Federálna obchodná komisia USA (FTC) – Konečné nariadenie zakazujúce falošné recenzie a referencie (tlačová správa) – ftc.gov
-
Federálny úrad pre vyšetrovanie (FBI) - FBI varuje pred rastúcou hrozbou kybernetických zločincov využívajúcich umelú inteligenciu - fbi.gov
-
Organizácia pre hospodársku spoluprácu a rozvoj (OECD) - Zásady OECD pre umelú inteligenciu - oecd.ai
-
OECD - Odporúčanie Rady o umelej inteligencii (OECD/LEGAL/0449) - oecd.org
-
Európska komisia – Usmernenia a kódex postupov pre transparentné systémy umelej inteligencie (FAQ) – europa.eu
-
Koalícia pre pôvod a autenticitu obsahu (C2PA) – Špecifikácie v2.3 – c2pa.org
-
Britský úrad pre hospodársku súťaž a trhy (CMA) – modely základov umelej inteligencie: úvodná správa – gov.uk
-
Americký Úrad pre kontrolu potravín a liečiv (FDA) – Zdravotnícke pomôcky s umelou inteligenciou – fda.gov
-
NIST - Bezpečnostné a súkromné kontroly pre informačné systémy a organizácie (SP 800-53 Rev. 5) - nist.gov
-
NIST - Generatívny profil umelej inteligencie (NIST.AI.600-1, ipd) - nist.gov
-
Projekt Open Worldwide Application Security Project (OWASP) – Neobmedzená spotreba zdrojov (API Security Top 10, 2023) – owasp.org
-
NIST - Demografické údaje o teste dodávateľov rozpoznávania tvárí (FRVT) - nist.gov
-
Barrett a kol. (2019) - Článok (PMC) - nih.gov
-
OECD - Využívanie umelej inteligencie na pracovisku (PDF) - oecd.org
-
Svetové ekonomické fórum (WEF) - Správa o budúcnosti pracovných miest 2025 - Súhrn - weforum.org
-
Úrad pre autorské práva USA – Autorské práva a umelá inteligencia, 3. časť: Správa o školení v oblasti generatívnej umelej inteligencie (predpublikačná verzia) (PDF) – copyright.gov
-
Vláda Spojeného kráľovstva (GOV.UK) - Autorské práva a umelá inteligencia (konzultácia) - gov.uk