Stručná odpoveď: Vývojári používajúci generatívnu umelú inteligenciu sú zodpovední za celý systém, nielen za výstup modelu. Keď umelá inteligencia ovplyvňuje rozhodnutia, kód, súkromie alebo dôveru používateľov, musia si vybrať bezpečné aplikácie, overiť výsledky, chrániť údaje, znížiť škody a zabezpečiť, aby ľudia mohli chyby skontrolovať, prepísať a opraviť.
Kľúčové poznatky:
Overenie : Vyleštené výstupy považovať za nedôveryhodné, kým ich nepotvrdia zdroje, testy alebo ľudská kontrola.
Ochrana údajov : Minimalizujte údaje výziev, odstráňte identifikátory a zabezpečte protokoly, kontroly prístupu a dodávateľov.
Spravodlivosť : Testujte naprieč demografickými skupinami a kontextami, aby ste odhalili stereotypy a nerovnomerné vzorce zlyhania.
Transparentnosť : Jasne označte používanie umelej inteligencie, vysvetlite jej obmedzenia a ponúknite možnosť ľudského posúdenia alebo odvolania.
Zodpovednosť : Pred spustením určte jasných vlastníkov pre nasadenie, incidenty, monitorovanie a vrátenie zmien.

Články, ktoré by ste si mohli prečítať po tomto:
🔗 Najlepšie nástroje umelej inteligencie pre vývojárov softvéru: Najlepší programátorskí asistenti s umelou inteligenciou
Porovnajte najlepších asistentov kódovania s umelou inteligenciou pre rýchlejšie a čistejšie vývojové pracovné postupy.
🔗 10 najlepších nástrojov umelej inteligencie pre vývojárov na zvýšenie produktivity
Zoznam nástrojov umelej inteligencie pre vývojárov pre inteligentnejšie kódovanie a rýchlosť.
🔗 Prečo môže byť umelá inteligencia škodlivá pre spoločnosť a dôveru
Vysvetľuje škody v reálnom svete: riziká zaujatosti, súkromia, pracovných miest a dezinformácií.
🔗 Zašla umelá inteligencia priďaleko v rozhodnutiach s vysokými stávkami?
Definuje, kedy umelá inteligencia prekračuje hranice: sledovanie, deepfake, presviedčanie, absencia súhlasu.
Prečo je zodpovednosť vývojárov používajúcich generatívnu umelú inteligenciu dôležitejšia, než si ľudia myslia
Veľa softvérových chýb je otravných. Tlačidlo sa pokazí. Stránka sa načíta pomaly. Niečo padá a všetci stonajú.
Problémy generatívnej umelej inteligencie môžu byť rôzne. Môžu byť jemné.
Model môže znieť sebavedomo, aj keď sa mýli. Profil NIST GenAI Dokáže reprodukovať skreslenie bez zjavných varovných signálov. Profil NIST GenAI Pri neopatrnom použití môže odhaliť citlivé údaje. OWASP Top 10 pre aplikácie LLM Osem otázok ICO pre generatívnu AI Dokáže vytvoriť kód, ktorý funguje - až kým v produkcii nezlyhá nejakým veľmi trápnym spôsobom. OWASP Top 10 pre aplikácie LLM Trochu ako keby ste si najali veľmi nadšeného stážistu, ktorý nikdy nespí a z času na čas si s ohromujúcou sebadôverou vymýšľa fakty.
Preto zodpovednosť vývojárov používajúcich generatívnu umelú inteligenciu väčšia ako len jednoduchá implementácia. Vývojári už nevytvárajú len logické systémy. Vytvárajú pravdepodobnostné systémy s fuzzy hranami, nepredvídateľnými výstupmi a reálnymi sociálnymi dôsledkami. NIST AI RMF
To znamená, že zodpovednosť zahŕňa:
-
pochopenie limitov modelu NIST AI RMF
-
ochrana súkromia používateľov, usmernenia ICO týkajúce sa umelej inteligencie a ochrany údajov
-
zníženie škodlivých výstupov Profil NIST GenAI
-
kontrola presnosti pred udelením dôveryhodnosti – profil NIST GenAI
-
objasnenie ľudskej úlohy Zásady OECD pre umelú inteligenciu
-
navrhovanie záložných ciest v prípade zlyhania umelej inteligencie (AI) Princípy OECD pre umelú inteligenciu ) Usmernenia NCSC pre bezpečnú umelú inteligenciu
-
jasné zdokumentovanie systému Zásady OECD pre umelú inteligenciu
Viete, ako to chodí – keď sa nástroj zdá byť magický, ľudia ho prestanú spochybňovať. Vývojári si nemôžu dovoliť byť takí uvoľnení.
Čo robí dobrú verziu zodpovednosti vývojárov používajúcich generatívnu umelú inteligenciu? 🛠️
Dobrá verzia zodpovednosti nie je performatívna. Nejde len o pridanie vyhlásenia o odmietnutí zodpovednosti na konci a nazvanie to etikou. Prejavuje sa vo výbere dizajnu, testovacích návykoch a správaní produktu.
zvyčajne podrobná verzia zodpovednosti vývojárov používajúcich generatívnu umelú inteligenciu
-
Zámerné použitie NIST AI RMF
-
Umelá inteligencia sa používa na riešenie skutočného problému, nie je do produktu vtlačená preto, že to znie módne.
-
-
Ľudský dohľad Zásady OECD pre umelú inteligenciu
-
Ľudia môžu výstupy skontrolovať, opraviť, prepísať alebo odmietnuť.
-
-
Bezpečnosť už v dizajne – pokyny NCSC pre bezpečnú umelú inteligenciu
-
Kontroly rizík sa zavádzajú už v ranom štádiu, nie neskôr sa pripevňujú lepiacou páskou.
-
-
Transparentnosť Zásady OECD pre umelú inteligenciu Prehľad zákona o umelej inteligencii Európskej komisie
-
Používatelia chápu, kedy je obsah generovaný umelou inteligenciou alebo s pomocou umelej inteligencie.
-
-
Osem otázok ICO pre starostlivosť o dáta
-
S citlivými informáciami sa zaobchádza starostlivo a prístup k nim je obmedzený.
-
-
Kontroly spravodlivosti Profil NIST GenAI Usmernenia ICO o umelej inteligencii a ochrane údajov
-
Systém je testovaný na skreslenie, nerovnomerný výkon a škodlivé vzorce.
-
-
Priebežné monitorovanie NIST AI RMF NCSC usmernení pre zabezpečenú umelú inteligenciu
-
Štart nie je cieľová čiara. Je to skôr ako štartovací hvizd.
-
Ak sa to zdá veľa, tak... je to tak. Ale tak to je, keď pracujete s technológiou, ktorá môže ovplyvňovať rozhodnutia, presvedčenia a správanie vo veľkom meradle. Zásady OECD pre umelú inteligenciu
Porovnávacia tabuľka – hlavná zodpovednosť vývojárov používajúcich generatívnu umelú inteligenciu v skratke 📋
| Oblasť zodpovednosti | Koho to ovplyvňuje | Denná prax vývojárov | Prečo je to dôležité |
|---|---|---|---|
| Presnosť a overenie | používatelia, tímy, zákazníci | Kontrola výstupov, pridanie validačných vrstiev, testovanie okrajových prípadov | UI môže byť plynulá a stále sa značne mýliť – čo je zhruba kombinácia profilu NIST GenAI |
| Ochrana súkromia | používatelia, klienti, interní zamestnanci | Minimalizujte používanie citlivých údajov, vymažte výzvy, kontrolujte protokoly | Keď uniknú súkromné údaje, zubná pasta je vonku z tuby 😬 Osem otázok ICO pre generatívnu AI OWASP Top 10 pre LLM aplikácie |
| Zaujatosť a spravodlivosť | nedostatočne zastúpené skupiny, všetci používatelia naozaj | Audit výstupov, testovanie rôznych vstupov, ladenie bezpečnostných opatrení | Škoda nie je vždy hlučná – niekedy je systematická a tichá. Profil NIST GenAI. Usmernenia ICO o umelej inteligencii a ochrane údajov. |
| Bezpečnosť | firemné systémy, používatelia | Obmedziť prístup k modelu, chrániť sa pred okamžitým vkladaním, riskantné akcie v sandboxe | Jeden šikovný exploit môže rýchlo zničiť dôveru OWASP Top 10 pre LLM aplikácie NCSC o umelej inteligencii a kybernetickej bezpečnosti |
| Transparentnosť | koncoví používatelia, regulačné orgány, podporné tímy | Jasne označte správanie AI, vysvetlite obmedzenia, zdokumentujte používanie | Ľudia si zaslúžia vedieť, kedy stroj pomáha. Zásady OECD pre umelú inteligenciu (AI Princípy) Kódex postupov pre označovanie a označovanie obsahu generovaného umelou inteligenciou. |
| Zodpovednosť | vlastníci produktov, právne oddelenie, vývojové tímy | Definovanie zodpovednosti, riešenia incidentov a eskalačných ciest | „Umelá inteligencia to urobila“ nie je odpoveď dospelých Zásady OECD pre umelú inteligenciu |
| Spoľahlivosť | každý, kto sa dotýka produktu | Monitorovanie zlyhaní, nastavenie prahových hodnôt spoľahlivosti, vytvorenie záložnej logiky | Modely sa odchyľujú, zlyhávajú neočakávaným spôsobom a z času na čas majú dramatickú malú epizódu. NIST AI RMF NCSC usmernenia pre zabezpečenie umelej inteligencie |
| Blahobyt používateľa | najmä zraniteľní používatelia | Vyhnite sa manipulatívnemu dizajnu, obmedzte škodlivé výstupy, prehodnoťte prípady použitia s vysokým rizikom | Len preto, že niečo sa dá vygenerovať, neznamená to, že by to malo byť v súlade s princípmi OECD pre umelú inteligenciu (NIST AI RMF). |
Iste, trochu nerovný stôl, ale to sa hodí k téme. Skutočná zodpovednosť je tiež nerovná.
Zodpovednosť začína pred prvou výzvou – výberom správneho prípadu použitia 🎯
Jednou z najväčších zodpovedností vývojárov je rozhodnutie, či by sa generatívna umelá inteligencia mala vôbec používať . NIST AI RMF
Znie to očividne, ale stále sa to prehliada. Tímy vidia model, nadchnú sa a začnú ho vnucovať do pracovných postupov, ktoré by sa lepšie riešili pravidlami, vyhľadávaním alebo bežnou softvérovou logikou. Nie každý problém potrebuje jazykový model. Niektoré problémy potrebujú databázu a pokojné popoludnie.
Pred výstavbou by sa developeri mali opýtať:
-
Je úloha otvorená alebo deterministická?
-
Môže nesprávny výstup spôsobiť škodu?
-
Potrebujú používatelia kreativitu, predikciu, sumarizáciu, automatizáciu – alebo len rýchlosť?
-
Budú ľudia prehnane dôverovať výstupom? Profil NIST GenAI
-
Dokáže človek realisticky posúdiť výsledky? Princípy OECD pre umelú inteligenciu
-
Čo sa stane, keď je model nesprávny? Princípy OECD pre umelú inteligenciu
Zodpovedný vývojár sa nepýta len: „Môžeme toto postaviť?“ Pýta sa: „Malo by sa to postaviť takto?“ NIST AI RMF
Už len táto otázka zabraňuje mnohým hlúpym nezmyslom.
Presnosť je zodpovednosť, nie bonusová funkcia ✅
Povedzme si to na rovinu – jednou z najväčších pascí generatívnej umelej inteligencie je zamieňanie výrečnosti s pravdou. Modely často produkujú odpovede, ktoré znejú uhladene, štruktúrovane a hlboko presvedčivo. Čo je krásne, kým obsah nie je nezmysel zahalený v tajnosti. Profil NIST GenAI
Zodpovednosť vývojárov používajúcich generatívnu umelú inteligenciu teda zahŕňa aj vytváranie overovacích prvkov.
To znamená:
-
s využitím vyhľadávania alebo uzemnenia, kde je to možné, profil NIST GenAI
-
oddelenie vygenerovaného obsahu od potvrdených faktov Zásady OECD pre umelú inteligenciu
-
starostlivé pridávanie prahov spoľahlivosti NIST AI RMF
-
vytváranie pracovných postupov pre kontrolu dôležitých výstupov v rámci zásad OECD pre umelú inteligenciu
-
zabránenie improvizácii modelu v kritických kontextoch Profil NIST GenAI
-
testovacie výzvy, ktoré sa snažia narušiť alebo zavádzať systém OWASP Top 10 pre LLM aplikácie
To má veľký význam v oblastiach ako:
-
zdravotná starostlivosť
-
financie
-
právne pracovné postupy
-
vzdelávanie
-
zákaznícka podpora
-
automatizácia podnikov
-
generovanie kódu
Napríklad vygenerovaný kód môže vyzerať úhľadne, ale zároveň skrýva bezpečnostné chyby alebo logické chyby. Vývojár, ktorý ho slepo kopíruje, nie je efektívny – jednoducho outsourcuje riziko v krajšom formáte. OWASP Top 10 pre LLM aplikácie NCSC o umelej inteligencii a kybernetickej bezpečnosti
Model môže pomôcť. Vývojár stále vlastní výsledok. Zásady OECD pre umelú inteligenciu
Ochrana súkromia a správa údajov sú nevyhnutné 🔐
Tu sa veci rýchlo zhoršujú. Generatívne systémy umelej inteligencie sa často spoliehajú na výzvy, protokoly, kontextové okná, pamäťové vrstvy, analytiku a infraštruktúru tretích strán. To vytvára veľa príležitostí na únik, pretrvávanie alebo opätovné použitie citlivých údajov spôsobmi, ktoré používatelia nikdy neočakávali. Osem otázok ICO pre generatívnu umelú inteligenciu OWASP Top 10 pre aplikácie LLM
Vývojári majú zodpovednosť chrániť:
-
osobné informácie
-
finančné záznamy
-
lekárske detaily
-
interné firemné údaje
-
obchodné tajomstvá
-
autentifikačné tokeny
-
komunikácia s klientmi
Zodpovedné postupy zahŕňajú:
-
minimalizácia údajov vstupujúcich do osem otázok modelového ICO pre generatívnu umelú inteligenciu
-
maskovanie alebo odstraňovanie identifikátorov profilu NIST GenAI
-
obmedzenie uchovávania protokolov, usmernenia ICO týkajúce sa umelej inteligencie a ochrany údajov
-
kontrola prístupu k výzvam a výstupom OWASP Top 10 pre aplikácie LLM
-
dôkladná kontrola nastavení dodávateľa Pokyny NCSC pre bezpečnú umelú inteligenciu
-
Izolácia vysokorizikových pracovných postupov podľa pokynov NCSC pre bezpečnú umelú inteligenciu
-
zviditeľnenie správania v oblasti súkromia pre používateľov Osem otázok ICO pre generatívnu umelú inteligenciu
Toto je jedna z tých oblastí, kde „zabudli sme na to myslieť“ nie je malá chyba. Je to zlyhanie, ktoré narúša dôveru.
A dôvera, keď sa raz rozbije, sa rozleje ako spadnuté sklo. Možno to nie je najvtipnejšia metafora, ale chápete.
Zaujatosť, spravodlivosť a zastúpenie – tichšie zodpovednosti ⚖️
Skreslenie v generatívnej umelej inteligencii je zriedkavo kresleným záporákom. Zvyčajne je oveľa klzkejšie. Model môže vytvárať stereotypné popisy práce, nerovnomerné rozhodnutia o moderovaní, jednostranné odporúčania alebo kultúrne úzke predpoklady bez toho, aby spustil zjavné poplachy. Profil NIST GenAI
Preto zodpovednosť vývojárov používajúcich generatívnu umelú inteligenciu zahŕňa aktívnu prácu v oblasti spravodlivosti.
Vývojári by mali:
-
testovacie výzvy z rôznych demografických skupín a kontextov profilu NIST GenAI
-
výstupy kontroly stereotypov a vylúčenia podľa profilu NIST GenAI
-
zahrnúť rôzne perspektívy počas hodnotenia NIST AI RMF
-
Sledujte nerovnomerné vzorce zlyhania podľa profilu NIST GenAI
-
vyhnúť sa predpokladu, že jeden jazykový štýl alebo kultúrna norma vyhovuje každému; usmernenia ICO týkajúce sa umelej inteligencie a ochrany údajov
-
vytvoriť kanály nahlasovania škodlivého výstupu NIST AI RMF
Systém sa môže zdať celkovo funkčný dobre, ale zároveň niektorým používateľom slúži horšie ako iným. To nie je prijateľné len preto, že priemerný výkon vyzerá na dashboarde pekne. Usmernenia ICO k umelej inteligencii a ochrane údajov Profil NIST GenAI
A áno, spravodlivosť je ťažšia ako úhľadný kontrolný zoznam. Je v nej úsudok. Kontext. Kompromisy. Aj miera nepohodlia. To však nezbavuje zodpovednosti – potvrdzuje ju. Usmernenia ICO k umelej inteligencii a ochrane údajov
Bezpečnosť je teraz súčasťou rýchleho návrhu, čiastočne inžinierskej disciplíny 🧱
Generatívna AI bezpečnosť je svojím vlastným zvláštnym beštiom. Tradičná bezpečnosť aplikácií je samozrejme stále dôležitá, ale systémy AI pridávajú nezvyčajné povrchy útoku: vkladanie promptu, nepriama manipulácia s promptu, nebezpečné používanie nástrojov, únik údajov prostredníctvom kontextu a zneužitie modelu prostredníctvom automatizovaných pracovných postupov. OWASP Top 10 pre LLM aplikácie NCSC o AI a kybernetickej bezpečnosti
Vývojári sú zodpovední za zabezpečenie celého systému, nielen rozhrania. Pokyny NCSC pre bezpečnú umelú inteligenciu
Medzi kľúčové zodpovednosti patrí:
-
čistenie nedôveryhodných vstupov OWASP Top 10 pre aplikácie LLM
-
obmedzenie toho, ktoré nástroje môže model nazývať OWASP Top 10 pre aplikácie LLM
-
obmedzenie prístupu k súborom a sieti podľa pokynov NCSC pre bezpečnú umelú inteligenciu
-
jasné oddelenie oprávnení Pokyny NCSC pre bezpečnú umelú inteligenciu
-
monitorovanie vzorcov zneužívania Pokyny NCSC pre zabezpečenú umelú inteligenciu
-
drahé alebo riskantné akcie obmedzujúce rýchlosť OWASP Top 10 pre prihlášky LLM
-
Testovanie kontradiktórnych výziev OWASP Top 10 pre prihlášky LLM
-
vytváranie bezpečných záložných riešení v prípade konfliktu pokynov so zásadami OECD pre umelú inteligenciu
Jednou nepríjemnou pravdou je, že používatelia – a útočníci – určite vyskúšajú veci, ktoré vývojári neočakávali. Niektorí zo zvedavosti, iní zo zlomyseľnosti, niektorí preto, že o druhej ráno klikli na nesprávnu vec. Stáva sa to.
Bezpečnosť pre generatívnu umelú inteligenciu nie je ako stavba múru a skôr ako riadenie veľmi ukecaného strážcu brány, ktorého niekedy oklamú frázy.
Transparentnosť a súhlas používateľa sú dôležitejšie ako okázalé UX 🗣️
Keď používatelia interagujú s umelou inteligenciou, mali by si to uvedomovať. Kódex postupov OECD pre označovanie a označovanie obsahu generovaného umelou inteligenciou v rámci zásad umelej inteligencie.
Nie nejasne. Nie skryté v termínoch. Jasne.
Hlavnou súčasťou zodpovednosti vývojárov používajúcich generatívnu umelú inteligenciu je zabezpečiť, aby používatelia rozumeli:
-
keď sa používa umelá inteligencia Zásady OECD pre umelú inteligenciu
-
čo umelá inteligencia dokáže a čo nemôže urobiť Zásady OECD pre umelú inteligenciu
-
či výstupy kontrolujú ľudia Zásady OECD pre umelú inteligenciu
-
ako sa spracovávajú ich údaje Osem otázok ICO pre generatívnu umelú inteligenciu
-
akú úroveň dôvery by mali mať podľa NIST AI RMF
-
ako nahlásiť problémy alebo sa odvolať proti rozhodnutiam Princípy OECD pre umelú inteligenciu NIST AI RMF
Transparentnosť nie je o strašení používateľov. Ide o ich rešpektovaní.
Dobrá transparentnosť môže zahŕňať:
-
označenia ako napríklad kódex postupov pre označovanie a označovanie obsahu generovaného umelou inteligenciou vytvorený
-
zrozumiteľné vysvetlenia Zásady OECD pre umelú inteligenciu
-
viditeľné histórie úprav, kde je to relevantné
-
možnosti vypnutia funkcií umelej inteligencie
-
eskalácia na človeka v prípade potreby Zásady OECD pre umelú inteligenciu
-
Stručné upozornenia pre úlohy s vysokým rizikom Prehľad zákona o umelej inteligencii Európskej komisie
Mnoho produktových tímov sa obáva, že úprimnosť spôsobí, že funkcia bude menej magická. Možno. Ale falošná istota je horšia. Hladké rozhranie, ktoré skrýva riziko, je v podstate vyleštený zmätok.
Vývojári zostávajú zodpovední - aj keď model „rozhodne“ 👀
Táto časť je veľmi dôležitá. Zodpovednosť nemožno preniesť na dodávateľa modelu, kartu modelu, šablónu výzvy ani na tajomnú atmosféru strojového učenia. Princípy OECD pre umelú inteligenciu , NIST AI RMF
Vývojári sú stále zodpovední. Zásady OECD pre umelú inteligenciu
To znamená, že niekto v tíme by mal vlastniť:
-
výber modelu NIST AI RMF
-
testovacie štandardy NIST GenAI Profile
-
kritériá pre uvoľnenie profilu NIST GenAI
-
reakcia na incidenty Pokyny NCSC pre bezpečnú umelú inteligenciu
-
riešenie sťažností používateľov NIST AI RMF
-
postupy vrátenia zmien Zásady OECD pre umelú inteligenciu
-
sledovanie zmien Zásady OECD pre umelú inteligenciu
-
dokumentácia Zásady OECD pre umelú inteligenciu
Mali by existovať jasné odpovede na otázky ako:
-
Kto schvaľuje nasadenie? Profil NIST GenAI
-
Kto kontroluje incidenty so škodlivým výstupom? Profil NIST GenAI
-
Kto môže túto funkciu vypnúť? Zásady OECD pre umelú inteligenciu
-
Kto monitoruje regresie? NIST AI RMF
-
Kto komunikuje s používateľmi, keď sa niečo pokazí? Zásady OECD pre umelú inteligenciu
Bez vlastníctva sa zodpovednosť mení na hmlu. Každý predpokladá, že sa o ňu stará niekto iný... a potom to nikto nerobí.
Tento vzorec je v skutočnosti starší ako umelá inteligencia. Umelá inteligencia ho jednoducho robí nebezpečnejším.
Zodpovední vývojári vytvárajú pre korekciu, nie pre dokonalosť 🔄
A tu je malý zvrat: zodpovedný vývoj umelej inteligencie nespočíva v predstieraní, že systém bude dokonalý. Ide o predpoklad, že nejakým spôsobom zlyhá, a o navrhovanie s ohľadom na túto realitu. NIST AI RMF
To znamená výrobu produktov, ktoré sú:
-
auditovateľné zásady OECD pre umelú inteligenciu
-
rozhodnutia a výstupy je možné preskúmať neskôr
-
-
prerušiteľné zásady OECD pre umelú inteligenciu
-
ľudia môžu zastaviť alebo potlačiť zlé správanie
-
-
obnoviteľné zásady OECD pre umelú inteligenciu
-
existuje záložná možnosť, keď je výstup AI nesprávny
-
-
monitorovateľné pokyny NCSC pre bezpečnú umelú inteligenciu NIST AI RMF
-
tímy dokážu odhaliť vzorce skôr, ako sa z nich stanú katastrofy
-
-
vylepšiteľný profil NIST GenAI
-
spätné väzby existujú a niekto ich číta
-
Takto vyzerá zrelosť. Nie lesklé ukážky. Nie dychberúce marketingové texty. Skutočné systémy so zábradlím, protokolmi, zodpovednosťou a dostatočnou pokorou na to, aby si priznali, že stroj nie je čarodejník. Smernice NCSC pre bezpečnú umelú inteligenciu. Princípy OECD pre umelú inteligenciu.
Pretože to tak nie je. Je to nástroj. Mocný, áno. Ale stále nástroj.
Záverečná úvaha o zodpovednosti vývojárov používajúcich generatívnu umelú inteligenciu 🌍
Aká je teda zodpovednosť vývojárov používajúcich generatívnu umelú inteligenciu ?
Znamená to budovať opatrne. Spochybňovať, kde systém pomáha a kde škodí. Chrániť súkromie. Testovať zaujatosť. Overovať výstupy. Zabezpečiť pracovný postup. Byť transparentný voči používateľom. Udržiavať ľuďom zmysluplnú kontrolu. Zostať zodpovedný, keď sa niečo pokazí. NIST AI RMF OECD Princípy AI
To môže znieť náročne – a aj je. Ale je to tiež to, čo odlišuje premyslený vývoj od bezohľadnej automatizácie.
Najlepší vývojári používajúci generatívnu umelú inteligenciu nie sú tí, ktorí prinútia model vykonávať najviac trikov. Sú to tí, ktorí chápu dôsledky týchto trikov a navrhujú podľa toho. Vedia, že rýchlosť je dôležitá, ale skutočným produktom je dôvera. Je zvláštne, že táto staromódna myšlienka stále platí. NIST AI RMF
Nakoniec, zodpovednosť nie je prekážkou inovácie. Je to to, čo bráni inovácii v tom, aby sa zmenila na drahý, turbulentný rozrast s vylešteným rozhraním a problémom s dôverou 😬✨
A možno je to tá najjednoduchšia verzia.
Stavajte odvážne, to je isté – ale stavajte tak, aby to mohlo ovplyvniť ľudí, pretože ich to ovplyvní. Zásady OECD pre umelú inteligenciu
Často kladené otázky
Aká je zodpovednosť vývojárov, ktorí v praxi používajú generatívnu umelú inteligenciu?
Zodpovednosť vývojárov používajúcich generatívnu umelú inteligenciu siaha ďaleko za rámec rýchleho dodávania funkcií. Zahŕňa výber správneho prípadu použitia, testovanie výstupov, ochranu súkromia, zníženie škodlivého správania a zabezpečenie zrozumiteľnosti systému pre používateľov. V praxi zostávajú vývojári zodpovední za to, ako je nástroj navrhnutý, monitorovaný, opravovaný a riadený v prípade zlyhania.
Prečo si generatívna umelá inteligencia vyžaduje väčšiu zodpovednosť vývojárov ako bežný softvér?
Tradičné chyby sú často zrejmé, ale generatívne zlyhania umelej inteligencie môžu znieť uhladene, no zároveň byť nesprávne, zaujaté alebo riskantné. To sťažuje odhalenie problémov a sťažuje používateľom dôveryhodnosť omylom. Vývojári pracujú s pravdepodobnostnými systémami, takže zodpovednosť zahŕňa zvládanie neistoty, obmedzovanie škôd a prípravu na nepredvídateľné výstupy pred spustením.
Ako vývojári vedia, kedy by sa generatívna umelá inteligencia nemala používať?
Bežným východiskovým bodom je otázka, či je úloha otvorená alebo či ju lepšie zvládnu pravidlá, vyhľadávanie alebo štandardná softvérová logika. Vývojári by mali tiež zvážiť, akú škodu by mohla spôsobiť nesprávna odpoveď a či človek dokáže realisticky skontrolovať výsledky. Zodpovedné používanie niekedy znamená rozhodnutie vôbec nepoužívať generatívnu umelú inteligenciu.
Ako môžu vývojári znížiť halucinácie a nesprávne odpovede v generatívnych systémoch umelej inteligencie?
Presnosť je potrebné navrhnúť, nie predpokladať. V mnohých procesoch to znamená založiť výstupy na dôveryhodných zdrojoch, oddeliť vygenerovaný text od overených faktov a používať kontrolné pracovné postupy pre úlohy s vyšším rizikom. Vývojári by mali tiež testovať výzvy určené na zmätenie alebo zavádzanie systému, najmä v oblastiach ako kód, podpora, financie, vzdelávanie a zdravotná starostlivosť.
Aká je zodpovednosť vývojárov používajúcich generatívnu umelú inteligenciu za súkromie a citlivé údaje?
Zodpovednosť vývojárov používajúcich generatívnu umelú inteligenciu zahŕňa minimalizáciu údajov vstupujúcich do modelu a zaobchádzanie s výzvami, protokolmi a výstupmi ako s citlivými. Vývojári by mali podľa možnosti odstrániť identifikátory, obmedziť uchovávanie údajov, kontrolovať prístup a starostlivo skontrolovať nastavenia dodávateľov. Používatelia by tiež mali byť schopní pochopiť, ako sa s ich údajmi nakladá, a nie neskôr objavovať riziká.
Ako by mali vývojári riešiť zaujatosť a spravodlivosť v generatívnych výstupoch umelej inteligencie?
Práca so zaujatosťou si vyžaduje aktívne hodnotenie, nie predpoklady. Praktickým prístupom je testovať podnety v rôznych demografických skupinách, jazykoch a kontextoch a potom skontrolovať výstupy z hľadiska stereotypov, vylúčenia alebo nerovnomerných vzorcov zlyhania. Vývojári by tiež mali vytvoriť spôsoby, ako môžu používatelia alebo tímy nahlasovať škodlivé správanie, pretože systém sa môže zdať celkovo silný, no napriek tomu môže určité skupiny neustále zlyhávať.
Aké bezpečnostné riziká musia vývojári zvážiť pri generatívnej umelej inteligencii?
Generatívna umelá inteligencia predstavuje nové oblasti útoku vrátane promptného vkladania údajov, nebezpečného používania nástrojov, úniku údajov prostredníctvom kontextu a zneužívania automatizovaných akcií. Vývojári by mali dezinfikovať nedôveryhodný vstup, obmedziť povolenia nástrojov, obmedziť prístup k súborom a sieti a monitorovať vzorce zneužívania. Bezpečnosť sa netýka len rozhrania; vzťahuje sa na celý pracovný postup okolo modelu.
Prečo je transparentnosť dôležitá pri tvorbe s generatívnou umelou inteligenciou?
Používatelia by mali jasne vedieť, kedy je zapojená umelá inteligencia, čo dokáže a kde sú jej limity. Dobrá transparentnosť môže zahŕňať označenia ako „vygenerované umelou inteligenciou“ alebo „asistované umelou inteligenciou“, jednoduché vysvetlenia a jasné cesty k ľudskej podpore. Takýto druh otvorenosti neoslabuje produkt; pomáha používateľom kalibrovať dôveru a robiť lepšie rozhodnutia.
Kto je zodpovedný, keď generatívna funkcia umelej inteligencie spôsobí škodu alebo urobí niečo zle?
Výsledok je stále zodpovedný za vývoj a produktové tímy, aj keď model prináša odpoveď. To znamená, že by mala existovať jasná zodpovednosť za schválenie nasadenia, riešenie incidentov, vrátenie zmien, monitorovanie a komunikáciu s používateľmi. „Model rozhodol“ nestačí, pretože zodpovednosť musí zostať na ľuďoch, ktorí systém navrhli a spustili.
Ako vyzerá zodpovedný vývoj generatívnej umelej inteligencie po spustení?
Zodpovedný vývoj pokračuje aj po vydaní prostredníctvom monitorovania, spätnej väzby, kontroly a opráv. Silné systémy sú auditovateľné, prerušiteľné, obnoviteľné a navrhnuté s možnosťami záložných riešení v prípade zlyhania umelej inteligencie. Cieľom nie je dokonalosť; ide o vytvorenie niečoho, čo sa dá bezpečne preskúmať, vylepšiť a upraviť, keď sa objavia problémy v reálnom svete.
Referencie
-
Národný inštitút pre štandardy a technológie (NIST) – profil NIST GenAI – nvlpubs.nist.gov
-
OWASP – OWASP Top 10 pre prihlášky na LLM – owasp.org
-
Úrad komisára pre informácie (ICO) - Osem otázok ICO pre generatívnu umelú inteligenciu - ico.org.uk