Stručná odpoveď: Neexistuje jediné prijateľné percento umelej inteligencie. Vhodná úroveň závisí od vkladov, od toho, čo umelá inteligencia formovala, a od toho, či človek zostáva zodpovedný. Zapojenie umelej inteligencie môže byť podstatné v internej práci s nízkym rizikom, keď sa overujú fakty, ale malo by zostať obmedzené, keď by chyby mohli zavádzať, spôsobiť ujmu alebo simulovať odbornosť.
Hlavné body:
Zodpovednosť : Priraďte každému publikovanému finálnemu výstupu menovanú osobu.
Úroveň rizika : Používajte viac umelej inteligencie na interné úlohy s nízkymi rizikami a menej na citlivú prácu s verejnosťou.
Overenie : Pred publikovaním obsahu s pomocou umelej inteligencie skontrolujte každé tvrdenie, číslo, citát a odôvodnenie.
Transparentnosť : Zverejnite zapojenie umelej inteligencie, keď by skrytá automatizácia mohla v publiku vyvolať pocit omylu.
Hlasové ovládanie : Nechajte umelú inteligenciu podporovať štruktúru a úpravy, zatiaľ čo ľudský úsudok a štýl zostanú pod kontrolou.

🔖 Mohlo by sa vám tiež páčiť:
🔗 Čo je etika umelej inteligencie?
Vysvetľuje princípy zodpovednej umelej inteligencie, spravodlivosť, transparentnosť a základy zodpovednosti.
🔗 Čo je to skreslenie umelej inteligencie?
Zahŕňa typy skreslenia, príčiny, dopady a prístupy k jeho zmierneniu.
🔗 Čo je škálovateľnosť AI?
Rozoberá škálovateľnosť systémov AI, výkon, náklady a potreby infraštruktúry.
🔗 Čo je prediktívna umelá inteligencia?
Definuje prediktívnu umelú inteligenciu, kľúčové prípady použitia, modely a výhody.
Prečo je teraz vôbec otázkou „Aké percento umelej inteligencie je prijateľné?“ 🤔
Nie tak dávno „pomoc s umelou inteligenciou“ znamenala automatické opravy a kontrolu pravopisu. Teraz dokáže brainstormingovať, vytvárať osnovy, písať, prepisovať, sumarizovať, prekladať, generovať obrázky, upravovať tabuľky, kódovať a zdvorilo opravovať vaše zlé formulácie. Otázkou teda nie je, či je do toho zapojená umelá inteligencia – už je.
Otázka znie skôr takto:
-
Kde leží zodpovednosť. (Vy, váš tím, váš editor, nástroj…) Zásady OECD pre umelú inteligenciu
-
Čo sa vytvára. (Báseň, lekárska správa, právna politika, školská esej…) Usmernenia WHO o generatívnej umelej inteligencii v zdravotníctve
-
Kto to číta a prečo? (Zákazníci, študenti, voliči, pacienti, váš šéf.)
-
Čo sa môže pokaziť. (Dezinformácie, plagiátorské prvky, problémy s dodržiavaním predpisov, poškodenie značky.) OpenAI: prečo jazykové modely predstavujú halucinácie v súvislosti s usmerneniami amerického úradu pre autorské práva k umelej inteligencii.
A trochu zvráteným spôsobom môže byť „percento“ menej dôležité ako to, čoho sa AI dotkla. Pridanie AI do „variácií titulkov“ nie je to isté ako pridanie AI do „finančného poradenstva“, aj keď obe sú technicky 30 % AI alebo tak nejako. 🙃
Čo robí dobrú verziu „prijateľného percenta AI“ ✅
Ak budujeme „dobrú verziu“ tohto konceptu, musí fungovať v každodennej praxi, nielen vyzerať filozoficky úhľadne.
Dobrý rámec pre otázku Aké percento AI je prijateľné? zostáva:
-
Kontextové uvedomenie : rôzne úlohy, rôzne záujmy. NIST AI RMF 1.0
-
Založené na výsledkoch : presnosť, originalita a praktická hodnota sú dôležitejšie ako testy čistoty.
-
Auditovateľné : ak sa niekto opýta, môžete vysvetliť, čo sa stalo. Princípy OECD pre umelú inteligenciu
-
Vlastnené človekom : za konečný výstup je zodpovedná skutočná osoba (áno, aj keď je to otravné). Zásady OECD pre umelú inteligenciu
-
Rešpekt k publiku : ľudia nenávidia pocit, že sú oklamaní – aj keď je obsah „v poriadku“. Odporúčanie UNESCO o etike umelej inteligencie
Tiež by to nemalo vyžadovať mentálnu gymnastiku typu „Bola tá veta 40 % alebo 60 % umelá inteligencia?“, pretože táto cesta končí šialenstvom... ako keby ste sa snažili zmerať, koľko lasagní je „syrovo orientovaných“. 🧀
Jednoduchý spôsob, ako definovať „percento AI“ bez toho, aby ste stratili rozum 📏
Pred porovnávaním si ukážeme rozumný model. Predstavte si použitie umelej inteligencie vo vrstvách:
-
Vrstva nápadov (brainstorming, námety, osnovy)
-
Vrstva konceptu (zápis pri prvom prechode, štruktúra, rozšírenia)
-
Upraviť vrstvu (úpravy jasnosti, vyhladenie tónov, gramatika)
-
Faktická vrstva (tvrdenia, štatistiky, citácie, špecifickosť)
-
Hlasová vrstva (štýl, humor, osobnosť značky, životná skúsenosť)
Ak sa umelá inteligencia silne dotýka vrstvy faktov, prijateľné percento zvyčajne rýchlo klesá. Ak sa umelá inteligencia nachádza prevažne vo vrstvách nápadov a úprav, ľudia majú tendenciu byť uvoľnenejší. OpenAI: prečo jazykové modely halucinujú profil NIST GenAI (AI RMF)
Takže keď sa niekto opýta, aké percento umelej inteligencie je prijateľné?, preložím to takto:
Ktoré vrstvy sú asistované umelou inteligenciou a aké rizikové sú tieto vrstvy v tomto kontexte? 🧠
Porovnávacia tabuľka – bežné „recepty“ používané umelou inteligenciou a kde sa hodia 🍳
Tu je praktický ťahák. Súčasťou sú mierne zvláštnosti formátovania, pretože skutočné tabuľky nikdy nie sú dokonalé, však?.
| nástroj / prístup | publikum | cena | prečo to funguje |
|---|---|---|---|
| Iba brainstorming s využitím umelej inteligencie | spisovatelia, marketéri, zakladatelia | od bezplatného po platené | Zachováva si ľudskú originalitu, umelá inteligencia len podnecuje nápady – ako hlučný kolega s espressom |
| Náčrt umelej inteligencie + ľudský návrh | blogeri, tímy, študenti (etické) | nízky až stredný | Štruktúra sa zrýchli, hlas zostáva váš. Celkom bezpečné, ak sú fakty overené |
| Ľudský návrh + prístup k úpravám pomocou umelej inteligencie | väčšina profesionálov | nízky | Skvelé pre jasnosť a tón. Riziko zostáva nízke, ak mu nedovolíte „vymýšľať“ detaily. OpenAI: Hovorí ChatGPT pravdu? |
| Prvý návrh od umelej inteligencie + rozsiahle prepisovanie ľuďmi | zaneprázdnené tímy, obsahové operácie | stred | Rýchle, ale vyžaduje si disciplínu. Inak posielate nevýraznú kašu... prepáčte 😬 |
| Preklad pomocou umelej inteligencie + kontrola človekom | globálne tímy, podpora | stred | Dobrá rýchlosť, ale lokálne nuansy môžu pristáť mierne mimo - ako topánky, ktoré takmer sedia |
| Súhrny umelej inteligencie pre interné poznámky | stretnutia, výskum, aktualizácie pre manažérov | nízky | Efektivita víťazí. Napriek tomu: potvrďte kľúčové rozhodnutia, pretože súhrny môžu byť „kreatívne“. OpenAI: prečo jazykové modely halucinujú. |
| „Odborné“ rady generované umelou inteligenciou | verejné publikum | líši sa | Vysoké riziko. Znie sebavedomo, aj keď sa mýli, čo je pochmúrna kombinácia WHO: Etika a riadenie umelej inteligencie v zdravotníctve |
| Verejný obsah generovaný plne umelou inteligenciou | spamové stránky, stránky s nízkymi stávkami | nízky | Je to škálovateľné, to je isté – ale dôvera a diferenciácia často trpia dlhodobým odporúčaním UNESCO o etike umelej inteligencie. |
Všimnite si, že nepovažujem „úplnú umelú inteligenciu“ za niečo vo svojej podstate zlé. Je len... často krehká, generická a riskantná pre reputáciu, keď sa stretne s ľuďmi. 👀
Prijateľné percentá AI podľa scenára - realistické rozsahy 🎛️
Dobre, poďme sa porozprávať o číslach – nie ako o zákone, ale ako o zábradlí. Sú to rozpätia „musím prežiť v každodennom živote“.
1) Marketingový obsah a blogy ✍️
-
Často prijateľné: 20 % až 60 % podpora umelej inteligencie
-
Riziko prudko stúpa, keď: tvrdenia sú špecifické, porovnania sú agresívne, objavia sa referencie alebo ich prezentujete ako „osobnú životnú skúsenosť“, komentár FTC odkazujúci na riziká marketingových tvrdení o umelej inteligencii, usmernenia Úradu pre autorské práva USA týkajúce sa umelej inteligencie.
Umelá inteligencia vám v tomto môže pomôcť postupovať rýchlejšie, ale publikum dokáže vycítiť všeobecný obsah tak, ako psy vycítia strach. Moja neohrabaná metafora znie: marketingový text zameraný na umelú inteligenciu je ako kolínska voda nastriekaná na nevypranú bielizeň – snaží sa, ale niečo nie je v poriadku. 😭
2) Akademická práca a študentské odovzdávanie prác 🎓
-
Často prijateľné: 0 % až 30 % (v závislosti od pravidiel a úlohy)
-
Bezpečnejšie použitie: brainstorming, vytváranie osnov, kontrola gramatiky, vysvetlenia pri štúdiu
-
Riziko prudko stúpa, keď: AI píše argumenty, analýzy alebo „originálne myslenie“ DfE: Generatívna AI vo vzdelávaní
Veľkým problémom nie je len spravodlivosť – je to aj učenie. Ak za myslenie stojí umelá inteligencia, študentov mozog sedí na lavici a je plátky pomaranča.
3) Písanie dokumentov na pracovisku (e-maily, dokumenty, štandardné prevádzkové postupy, interné poznámky) 🧾
-
Často prijateľné: 30 % až 80 %
-
Prečo tak vysoko? Pri internom písaní ide o jasnosť a rýchlosť, nie o literárnu čistotu.
-
Riziko prudko stúpa, keď: znenie politiky má právne dôsledky alebo je dôležitá presnosť údajov NIST AI RMF 1.0
Mnoho spoločností už potichu funguje s „vysokou pomocou umelej inteligencie“. Len to tak nenazývajú. Je to skôr v štýle „sme efektívni“ – čo je fér.
4) Zákaznícka podpora a odpovede v chate 💬
-
Často prijateľné: 40 % až 90 % so zábradlím
-
Nevyjednávateľné: eskalačné cesty, schválená báza znalostí, dôkladné preskúmanie okrajových prípadov
-
Riziko prudko stúpa, keď: umelá inteligencia robí sľuby, vrátenie peňazí alebo výnimky z pravidiel OpenAI: Hovorí ChatGPT pravdu? NIST GenAI Profile (AI RMF)
Zákazníkom nevadí rýchla pomoc. Vadí im nesprávna pomoc. Ešte viac im vadí sebavedomá nesprávna pomoc.
5) Žurnalistika, verejné informácie, zdravie, právne témy 🧠⚠️
-
Často prijateľné: 0 % až 25 % pomoc s písaním s využitím umelej inteligencie
-
Prijateľnejšie: AI na prepis, hrubé súhrny, organizáciu
-
Riziko prudko stúpa, keď: AI „vypĺňa medzery“ alebo premieňa neistotu na falošnú istotu AP: Štandardy pre generatívnu AI Usmernenia WHO týkajúce sa generatívnej AI v zdravotníctve
V tomto prípade je „percento“ nesprávnym pojmom. Chcete ľudskú redakčnú kontrolu a dôkladné overovanie. Umelá inteligencia môže pomôcť, ale nemala by byť tým, kto rozhoduje. Etický kódex SPJ
Faktor dôvery - prečo zverejnenie mení prijateľné percento 🧡
Ľudia neposudzujú obsah len podľa kvality. Posudzujú ho podľa vzťahu . A vzťah so sebou prináša pocity. (Otravné, ale pravdivé.)
Ak vaše publikum verí:
-
si priehľadný,
-
si zodpovedný/á,
-
Nepredstieraš odbornosť,
...potom môžete často použiť viac AI bez spätnej reakcie.
Ale ak vaše publikum vycíti:
-
skrytá automatizácia,
-
falošné „osobné príbehy“,
-
vyrobená autorita,
...potom aj malý príspevok umelej inteligencie môže vyvolať reakciu „nie, ja odchádzam“. Dilema transparentnosti: Zverejňovanie informácií o umelej inteligencii a dôvera (Schilke, 2025) Článok Oxford Reuters Institute o zverejňovaní informácií o umelej inteligencii a dôvere (2024)
Takže keď sa pýtate, aké percento umelej inteligencie je prijateľné?, zahrňte túto skrytú premennú:
-
Dôverujete bankovému účtu? Môžete minúť viac peňazí.
-
Máte nízku dôveru v bankový účet? Umelá inteligencia sa stáva lupou na všetko, čo robíte.
„Problém s hlasom“ – prečo percento umelej inteligencie môže nenápadne sploštiť vašu prácu 😵💫
Aj keď je umelá inteligencia presná, často vyhladzuje hrany. A práve hrany sú miestom, kde žije osobnosť.
Príznaky prílišného množstva umelej inteligencie v hlasovej vrstve:
-
Všetko znie zdvorilo optimisticky, akoby sa vám snažilo predať béžovú pohovku
-
Vtipy pristanú... ale potom sa ospravedlníš
-
Silné názory sa rozptýlia do „záleží na tom“
-
Konkrétne skúsenosti sa stávajú tým, čo „mnohí ľudia hovoria“
-
Vaše písanie stráca malé, svojrázne zvláštnosti (ktoré sú zvyčajne vašou výhodou)
Preto veľa „prijateľných stratégií umelej inteligencie“ vyzerá takto:
-
AI pomáha so štruktúrou a prehľadnosťou
-
Ľudia dodávajú vkus + úsudok + príbeh + postoj 😤
Pretože chuť je tá časť, ktorú je najťažšie automatizovať bez toho, aby sa premenila na ovsenú kašu.
Ako nastaviť percentuálnu politiku AI, ktorá sa nezrúti pri prvom argumente 🧩
Ak to robíte pre seba alebo pre tím, nepíšte pravidlá ako:
„Nie viac ako 30 % umelej inteligencie.“
Ľudia sa okamžite opýtajú: „Ako to zmeriame?“ a potom sa všetci unavia a vrátia sa k tomu, aby to len tak robili.
Namiesto toho stanovte pravidlá podľa vrstvy a rizika : NIST AI RMF 1.0 OECD AI Princípy
Funkčná šablóna politiky (ukradnite si ju)
-
AI umožnila: brainstorming, vytváranie osnov, úpravy prehľadnosti, formátovanie, návrhy prekladov ✅
-
UI obmedzená pre: pôvodnú analýzu, konečné tvrdenia, citlivé témy, verejné „odborné rady“ ⚠️ WHO: Etika a riadenie UI v zdravotníctve
-
Vždy sa vyžaduje: kontrola človekom, overenie faktov, schválenie zodpovednosti 🧍
-
Nikdy nie je povolené: falošné referencie, vymyslené referencie, vymyslené príbehy typu „Vyskúšal som to“ 😬 Komentár FTC odkazujúci na klamlivé tvrdenia o umelej inteligencii Reuters: FTC zakročila proti klamlivým tvrdeniam o umelej inteligencii (2024-09-25)
Potom, ak potrebujete číslo, pridajte rozsahy:
-
Nízke riziká interne: až po „vysokú pomoc“
-
Verejný obsah: „mierna pomoc“
-
Informácie o vysokých stávkach: „minimálna pomoc“
Áno, je to nejasné. Život je nejasný. Snažiť sa to urobiť zrozumiteľným je spôsob, ako skončiť s nezmyselnými pravidlami, ktoré nikto nedodržiava. 🙃
Praktický zoznam pre sebakontrolu na tému „Aké percento umelej inteligencie je prijateľné?“ 🧠✅
Pri rozhodovaní o tom, či je používanie umelej inteligencie prijateľné, skontrolujte tieto informácie:
-
Tento proces môžete nahlas obhajovať bez toho, aby ste sa krútili.
-
AI neuviedla žiadne tvrdenia, ktoré by ste neoverili. OpenAI: Hovorí ChatGPT pravdu?
-
Výstup znie ako ty, nie ako hlásenie na letisku.
-
Ak by sa niekto dozvedel, že umelá inteligencia pomáha, necítil by sa oklamaný. Reuters a umelá inteligencia (transparentný prístup)
-
Ak je to nesprávne, môžete uviesť, kto bol zranený – a ako veľmi. NIST AI RMF 1.0
-
Pridali ste skutočnú hodnotu, namiesto toho, aby ste stlačili tlačidlo Vygenerovať a odoslali ho.
Ak tie dopadnú čisto, vaše „percento“ je pravdepodobne v poriadku.
A ešte malé priznanie: niekedy je najetickejším využitím umelej inteligencie šetrenie energie na tie časti, ktoré vyžadujú ľudský mozog. Tie ťažké časti. Tie najzauzlenejšie časti. Časti „Musím sa rozhodnúť, čomu verím“. 🧠✨
Stručné zhrnutie a záverečné poznámky 🧾🙂
Takže - aké percento AI je prijateľné? závisí menej od matematiky a viac od stávok, vrstiev, overovania a dôvery . NIST AI RMF 1.0
Ak si chcete dať jednoduché jedlo so sebou:
-
Nízke stávky + interná práca: AI môže tvoriť veľkú časť (dokonca aj väčšinu), ak je za ňu zodpovedný človek. Zásady OECD pre AI
-
Verejný obsah: AI je v podporných rolách v poriadku, ale posolstvo musí byť riadené ľudským úsudkom.
-
Dôležité informácie (zdravotníctvo, právo, bezpečnosť, žurnalistika): udržujte pomoc umelej inteligencie minimálnu a prísne kontrolovanú. Usmernenia WHO týkajúce sa generatívnej umelej inteligencie v zdravotníctve. AP: Štandardy týkajúce sa generatívnej umelej inteligencie.
-
Nikdy nepoužívajte umelú inteligenciu na falšovanie prežitých skúseností, referencií alebo výsledkov – tam dôvera zomiera 😬 Komentár FTC odkazujúci na klamlivé tvrdenia o umelej inteligencii. Usmernenia amerického úradu pre autorské práva týkajúce sa umelej inteligencie.
A tu je moje mierne dramatické preháňanie (pretože to robia ľudia):
Ak je vaša práca postavená na dôvere, potom je „prijateľná umelá inteligencia“ čokoľvek, čo túto dôveru stále chráni, keď sa nikto nedíva. Odporúčanie UNESCO o etike umelej inteligencie
Tu je skrátená a ucelenejšia verzia vašich Často kladených otázok:
Často kladené otázky
Aké percento umelej inteligencie je prijateľné vo väčšine druhov práce?
Neexistuje jedno percento, ktoré by vyhovovalo každej úlohe. Lepším štandardom je posudzovať používanie umelej inteligencie podľa súvisiacich faktorov, rizika chyby, očakávaní publika a časti práce, ktorú umelá inteligencia pomohla vytvoriť. Vysoký podiel môže byť úplne v poriadku pre interné poznámky, zatiaľ čo oveľa nižší podiel je vhodnejší pre verejne dostupný alebo citlivý materiál.
Ako mám merať používanie umelej inteligencie bez toho, aby som sa zaoberal presnými percentami?
Praktickým prístupom je myslieť vo vrstvách, a nie sa snažiť priradiť každej vete číslo. Tento článok rozoberá využitie umelej inteligencie v rámci vrstiev nápadov, konceptov, úprav, faktov a hlasu. To uľahčuje posúdenie rizika, pretože zapojenie umelej inteligencie do faktov alebo osobného hlasu je zvyčajne dôležitejšie ako pomoc s brainstormingom alebo gramatikou.
Aké percento umelej inteligencie je prijateľné pre blogové príspevky a marketingový obsah?
Pre blogové príspevky a marketing môže byť funkčná široká škála podpory umelej inteligencie od 20 % do 60 %. Umelá inteligencia môže pomôcť s osnovami, štruktúrou a prehľadnosťou za predpokladu, že človek stále ovláda hlas a overuje tvrdenia. Riziko sa rýchlo zvyšuje, keď obsah obsahuje silné porovnania, referencie alebo jazyk, ktorý naznačuje osobnú skúsenosť.
Je v poriadku používať umelú inteligenciu na školské úlohy alebo akademické písanie?
V akademickom prostredí je prijateľné používanie často oveľa nižšie, zvyčajne okolo 0 % až 30 %, v závislosti od pravidiel a zadania. Bezpečnejšie použitie zahŕňa brainstorming, tvorbu osnov, gramatickú podporu a pomoc so štúdiom. Problémy začínajú, keď umelá inteligencia poskytuje analýzu, argumentáciu alebo originálne myslenie, ktoré sa od študenta očakáva.
Aké množstvo umelej inteligencie je prijateľné pre interné dokumenty a e-maily na pracovisku?
Písanie na pracovisku je často jednou z flexibilnejších kategórií, pričom bežná je asistencia umelej inteligencie okolo 30 % až 80 %. Mnohé interné dokumenty sa posudzujú skôr podľa jasnosti a rýchlosti než podľa originality. Napriek tomu je ľudské preskúmanie stále dôležité, keď materiál obsahuje formulácie pravidiel, citlivé detaily alebo dôležité faktické tvrdenia.
Môžu sa tímy zákazníckej podpory vo veľkej miere spoliehať na odpovede umelej inteligencie?
V mnohých pracovných postupoch áno, aj keď len so silnými ochrannými opatreniami. Článok navrhuje zhruba 40 % až 90 % podporu umelej inteligencie pre reakcie zákazníkov, keď tímy majú eskalačné cesty, schválené zdroje znalostí a kontrolu nezvyčajných prípadov. Väčším nebezpečenstvom nie je samotná automatizácia, ale umelá inteligencia, ktorá dáva sebavedomé sľuby, výnimky alebo záväzky, ktoré nikdy nemala robiť.
Aké percento umelej inteligencie je prijateľné pre zdravotníctvo, právo, žurnalistiku alebo iné dôležité témy?
V oblastiach s vysokými stávkami má percentuálna otázka menší význam ako kontrolná otázka. UI môže pomôcť s prepisom, hrubými súhrnami alebo organizáciou, ale konečný úsudok a overenie by mali zostať pevne ľudské. V týchto oblastiach je prijateľná pomoc UI pri písaní často minimálna, okolo 0 % až 25 %, pretože náklady na sebavedomú chybu sú oveľa vyššie.
Zvyšuje zverejnenie používania umelej inteligencie jeho toleranciu u ľudí?
V mnohých prípadoch transparentnosť formuje reakciu viac ako hrubé percento. Ľudia sa cítia pohodlnejšie s pomocou umelej inteligencie, keď sa proces zdá byť otvorený, zodpovedný a nie maskovaný ako ľudská odbornosť alebo životná skúsenosť. Aj malé množstvo skrytej automatizácie môže narušiť dôveru, keď sa čitatelia cítia zavádzaní o tom, kto dielo vytvoril.
Prečo umelá inteligencia niekedy spôsobuje, že text pôsobí plocho, aj keď je technicky správny?
Článok to opisuje ako problém s hlasom. Umelá inteligencia často premieňa prózu na niečo uhladené, no zároveň všeobecné, čo môže zbaviť ľudí humoru, presvedčenia, špecifickosti a individuálneho charakteru. Preto mnoho tímov necháva umelú inteligenciu podporovať štruktúru a jasnosť, zatiaľ čo človek si ponecháva kontrolu nad vkusom, úsudkom, rozprávaním príbehov a silnými názormi.
Ako môže tím nastaviť pravidlá pre umelú inteligenciu, ktoré budú ľudia dodržiavať?
Funkčná politika sa zvyčajne zameriava na úlohy a riziká, a nie na rigidný percentuálny strop. Článok odporúča povoliť umelú inteligenciu na brainstorming, tvorbu osnov, úpravy, formátovanie a preklady návrhov, pričom ju obmedziť na originálne analýzy, citlivé témy a odborné poradenstvo. Mala by tiež vyžadovať ľudské preskúmanie, overovanie faktov, zodpovednosť a jasný zákaz vymyslených svedectiev alebo skúseností.
Referencie
-
Svetová zdravotnícka organizácia (WHO) - Usmernenia WHO o generatívnej umelej inteligencii v zdravotníctve - who.int
-
Svetová zdravotnícka organizácia (WHO) - Etika a riadenie umelej inteligencie v zdravotníctve - who.int
-
Národný inštitút pre štandardy a technológie (NIST) - AI RMF 1.0 - nvlpubs.nist.gov
-
Národný inštitút pre štandardy a technológie (NIST) - profil GenAI (AI RMF) - nvlpubs.nist.gov
-
Organizácia pre hospodársku spoluprácu a rozvoj (OECD) - Zásady OECD pre umelú inteligenciu - oecd.ai
-
UNESCO - Odporúčanie o etike umelej inteligencie - unesco.org
-
Úrad pre autorské práva USA – Pokyny pre politiku umelej inteligencie – copyright.gov
-
Federálna obchodná komisia (FTC) – Komentár odkazujúci na riziká marketingových tvrdení o umelej inteligencii – ftc.gov
-
Ministerstvo školstva Spojeného kráľovstva (DfE) – Generatívna umelá inteligencia vo vzdelávaní – gov.uk
-
Associated Press (AP) - Štandardy týkajúce sa generatívnej umelej inteligencie - ap.org
-
Spoločnosť profesionálnych novinárov (SPJ) - Etický kódex SPJ - spj.org
-
Reuters - FTC zakročila proti klamlivým tvrdeniam o umelej inteligencii (2024-09-25) - reuters.com
-
Reuters - Reuters a umelá inteligencia (transparentný prístup) - reuters.com
-
Oxfordská univerzita (Reuters Institute) - Zverejňovanie informácií o umelej inteligencii a dôvera (2024) - ora.ox.ac.uk
-
ScienceDirect - Dilema transparentnosti: Zverejňovanie informácií o umelej inteligencii a dôvera (Schilke, 2025) - sciencedirect.com
-
OpenAI - Prečo jazykové modely halucinujú - openai.com
-
Centrum pomoci OpenAI – Hovorí ChatGPT pravdu? – help.openai.com