🏫 V niektorých školách chatboty vypočúvajú študentov o ich práci. Revolúcia umelej inteligencie však učiteľov znepokojuje ↗
Niektoré austrálske školy testujú ostrejší pohľad na princíp „ukáž svoju prácu“ – študenti dokončia úlohu a potom ich chatbot s umelou inteligenciou opätovne vypočuje, aby overil, či rozumejú odovzdanému textu. V podstate ide o ústnu skúšku, ale stroj sa vás pýta „čo tým myslíte?“, až kým sa nezačnete mrviť.
Väčším problémom je nerovnomerné zavádzanie: jeden z odborových dokumentov varuje, že rýchli implementátori by mohli rýchlo napredovať, zatiaľ čo iní by mohli zaostávať, čím by sa vytvoril dvojrýchlostný vzdelávací systém. Učitelia tiež neustále poukazujú na známe – a stále vážne – obavy: súkromie, blahobyt a ako zabrániť tomu, aby sa „pomoc umelej inteligencie“ zmenila na „urobila to umelá inteligencia“.
👮 Metropolitná polícia používa nástroje umelej inteligencie od spoločnosti Palantir na signalizáciu porušenia predpisov príslušníkov ↗
Londýnska Metropolitná polícia využíva umelú inteligenciu od spoločnosti Palantir na analýzu interných vzorcov pracovnej sily – choroby, absencie, nadčasy – a hľadá signály, ktoré by mohli korelovať s problémami s profesionálnymi štandardmi. Projekt je prezentovaný ako časovo obmedzený pilotný projekt a, čo je kľúčové, Metropolitná polícia tvrdí, že samotné rozhodnutia stále robia ľudia... ale že „stále“ to robí veľa práce.
Policajná federácia nie je nadšená, nazýva to „automatizovaným podozrievaním“ a varuje pred nepriehľadnými nástrojmi, ktoré nesprávne interpretujú stres a pracovnú záťaž ako priestupok. Je to jeden z tých momentov, keď technika znie úhľadne na diapozitíve, potom si predstavíte, ako sa cíti v praxi, a zrazu sa zmení na pichľavú.
🛡️ Britský dozorný orgán pre ochranu súkromia varuje pred obrázkami generovanými umelou inteligenciou vo svojom spoločnom vyhlásení ↗
Britská ICO sa pripojila k ďalším regulačným orgánom v spoločnom varovaní pred obrázkami generovanými umelou inteligenciou, ktoré zobrazujú identifikovateľné osoby bez ich súhlasu – v podstate: nepovažujte „je to syntetické“ za magickú výhovorku. Posolstvom je včas vybudovať ochranné opatrenia a zapojiť regulačné orgány namiesto klasického technologického kroku, kedy sa najprv odošle a až potom sa ospravedlňuje.
Zdôrazňujú tiež zvýšené riziká pre deti, čo dáva zmysel, pretože akonáhle sa táto vec rozšíri, je to ako snažiť sa nabrať trblietky späť do pohára. Hlavnou myšlienkou je, že súkromie a dôstojnosť majú prežiť módny cyklus, alebo sa to aspoň zdá.
🪖 Americký minister obrany Hegseth predvolal generálneho riaditeľa spoločnosti Anthropic na náročné rokovania o vojenskom využití systému Claude, informuje Axios ↗
Agentúra Reuters informuje, že minister obrany USA sa chystá stretnúť s generálnym riaditeľom spoločnosti Anthropic na konfrontačnejší rozhovor o vojenskom využití modelu Claude. Pentagon údajne chce, aby hlavní poskytovatelia umelej inteligencie sprístupnili modely na utajovaných sieťach s menšími obmedzeniami – a Anthropic sa bráni akémukoľvek uvoľneniu ochranných opatrení.
Podtext znie ako klasická dilema „rýchly krok, ale... s raketami v ruke“. Ak sa strany nedokážu dohodnúť na bezpečnostných opatreniach, vzťah by sa mohol napnúť alebo dokonca pretrhnúť – Anthropic však zároveň signalizuje, že rozhovory s vládou zostávajú konštruktívne, takže je to napäté, ale (zatiaľ) nie úplne o rozchode.
🧠 ChatGPT – Poznámky k vydaniu ↗
Poznámky k vydaniu OpenAI poukazujú na rozšírené kontextové okno pre režim „Myslenie“ – čo znamená, že môžete modelu poskytnúť viac textu a udržiavať dlhšie vlákna súvislé bez toho, aby stratili skoršie detaily. Ak ste niekedy videli, ako model „zabudol“ niečo, čo ste doslova práve povedali (bolesť), toto je zamerané presne na to.
Je to veľmi nerdovské vylepšenie, ktoré nenápadne mení to, čo je praktické: dlhšie dokumenty, zložitejšie projekty, rozsiahlejšie výskumné sedenia. Nie je to okázalé, ale je to ten druh zmeny v rozvodoch vody, vďaka ktorej sa celý dom zrazu zdá väčší.
Často kladené otázky
Čo to znamená, keď školy používajú chatboty na „vypočúvanie“ študentov ohľadom zadaní?
V niektorých austrálskych školách študenti vypracujú zadanie a potom absolvujú diskusiu s chatbotom s umelou inteligenciou, ktorý skúma ich uvažovanie. Funguje to ako ústna konzultácia, ktorá núti študentov vysvetliť, čo napísali a prečo. Účelom je overiť porozumenie, nielen výstup. Môže to tiež odhaliť medzery, keď študent nedokáže obhájiť kľúčové tvrdenia.
Ako by mohli chatboty s umelou inteligenciou v školách vytvoriť „dvojrýchlostný“ vzdelávací systém?
Štúdia z odvetvia varuje, že školy, ktoré rýchlo zavádzajú nové technológie, by mohli dosiahnuť náskok, zatiaľ čo školy, ktoré sa vyvíjajú pomalšie, by mohli ešte viac zaostávať. Ak niektoré školy nasadia nástroje umelej inteligencie na hodnotenie porozumenia, podporu učenia alebo odrádzanie od zneužívania, môžu zlepšiť výsledky skôr. Iné môžu mať nedostatok rozpočtu, personálnych kapacít alebo jasnosti politík na zavedenie porovnateľných systémov. Toto nerovnomerné zavádzanie môže prehĺbiť existujúce rozdiely v zdrojoch a dosiahnutých výsledkoch.
Ako sa učitelia snažia zabrániť tomu, aby sa „pomoc umelej inteligencie“ zmenila na „umelá inteligencia to urobila“?
Bežným prístupom je posunúť hodnotenie smerom k procesu a vysvetľovaniu, nielen k hotovému produktu. Otázky v štýle chatbota, koncepty, reflexie alebo ústne kontroly môžu sťažiť odovzdanie práce, ktorej nerozumiete. Učitelia môžu tiež stanoviť prísnejšie hranice prijateľnej pomoci, ako je brainstorming oproti úplnému prepísaniu. Dôraz zostáva na preukázaní porozumenia, nie na kontrole každého nástroja.
Aké problémy so súkromím a pohodou vznikajú pri používaní umelej inteligencie v triedach?
Učitelia neustále vyjadrujú obavy o to, aké údaje o študentoch sa zhromažďujú, kde sa ukladajú a kto k nim má prístup. Existujú aj obavy o blaho študentov, ak sa cítia neustále monitorovaní alebo pod tlakom zo strany strojovo riadených otázok. Deti sú špeciálnou rizikovou skupinou, pretože citlivé informácie sa môžu v systémoch šíriť alebo pretrvávať neočakávaným spôsobom. Mnohé školy sa snažia zaviesť ochranné opatrenia včas, a nie sa ich neskôr snažia dodatočne nainštalovať.
Ako Metropolitná polícia využíva umelú inteligenciu od spoločnosti Palantir na označenie možného pochybenia dôstojníkov?
Londýnska Metropolitná polícia využíva umelú inteligenciu od spoločnosti Palantir na analýzu vzorcov pracovnej sily, ako sú choroby, absencie a nadčasy. Cieľom je odhaliť signály, ktoré by mohli korelovať s problémami s profesionálnymi štandardmi. Projekt je opísaný ako časovo obmedzený pilotný projekt a Metropolitná polícia tvrdí, že rozhodnutia stále robia ľudia. Kritici tvrdia, že nástroj sa môže zdať ako „automatizované podozrenie“, ak stres interpretuje ako priestupok.
Prečo sa policajné odbory obávajú „automatizovaného podozrievania“ z nástrojov dohľadu nad umelou inteligenciou?
Policajná federácia sa obáva, že nepriehľadné modely môžu vyvodzovať pochybenia zo vzorcov, ktoré majú neškodné vysvetlenia. Nárast pracovnej záťaže, zdravotné problémy a stres môžu ovplyvniť dochádzku alebo nadčasy bez toho, aby to naznačovalo pochybenie. Ak logika nástroja nie je transparentná, pre policajtov je ťažšie spochybňovať označenia alebo pre manažérov kalibrovať spravodlivé prahy. Aj pri ľudských rozhodnutiach môžu automatizované signály stále formovať výsledky.
Pred čím varuje britská ICO v súvislosti s obrázkami identifikovateľných osôb generovanými umelou inteligenciou?
Britský orgán dohľadu nad ochranou súkromia sa pridal k ďalším regulačným orgánom a varoval, že „syntetický“ neznamená bez následkov. Ak obrázok vygenerovaný umelou inteligenciou zobrazuje identifikovateľnú osobu bez jej súhlasu, stále existujú riziká pre súkromie a dôstojnosť. Regulačné orgány zdôrazňujú včasné budovanie záruk a zapojenie do dohľadu, a nie ich prvotné zavádzanie. Upozorňujú tiež na zvýšené riziká pre deti, kde sa škoda môže rýchlo rozšíriť po šírení obsahu.
Čo sa skrýva za údajným tlakom Pentagonu na Anthropic ohľadom vojenského využitia Clauda?
Agentúra Reuters informuje, že minister obrany USA sa chystá stretnúť s generálnym riaditeľom spoločnosti Anthropic, aby sprísnili rokovania o vojenskom využití systému Claude. Pentagon údajne chce, aby hlavní poskytovatelia umelej inteligencie sprístupnili modely v utajovaných sieťach s menšími obmedzeniami. Spoločnosť Anthropic sa bráni uvoľnenejším ochranným opatreniam a poukazuje na konflikt ohľadom ochranných opatrení. Vzťahy znie napäto, hoci obe strany signalizujú, že rokovania zostávajú konštruktívne.
Čo sa zmenilo v poznámkach k vydaniu ChatGPT ohľadom dĺžky kontextu režimu „Myslenie“?
Poznámky k vydaniu OpenAI poukazujú na rozšírené kontextové okno pre režim „Myslenie“, čo umožňuje umiestniť viac textu do jedného vlákna. V praxi to môže pomôcť s dlhými dokumentmi, zložitými projektmi a viacstupňovým výskumom, kde sú dôležité skoršie detaily. Ide skôr o vylepšenie v štýle inštalatérstva než o okázalú funkciu. Hlavnou výhodou je menej stratených detailov počas dlhších relácií.