🏗️ USA tlačia spoločnosti k novému „kompaktnému“ dátovému centru pre umelú inteligenciu, informuje Politico ↗
USA sa údajne snažia presvedčiť veľké firmy, aby podpísali novú „dohodu“ o dátových centrách umelej inteligencie – v podstate ide o súbor záväzkov o tom, ako by sa malo s týmito obrovskými výpočtovými systémami zaobchádzať.
Detaily sú stále trochu nejasné (klasika), ale smer sa zdá byť známy: štandardizácia očakávaní týkajúcich sa energie, bezpečnosti a prípadne aj podávania správ – zdvorilá verzia zásady „prosím, nenechajte to zmeniť na chaos“
🎬 Autodesk žaluje Google kvôli softvéru na tvorbu filmov s umelou inteligenciou ↗
Spoločnosť Autodesk žaluje Google kvôli názvu „Flow“ s tvrdením, že už používala „Flow“ pre produkčný softvér a softvér na správu vizuálnych efektov – a nástroj spoločnosti Google na tvorbu filmov s umelou inteligenciou prišiel s rovnakým označením.
Ostrejším detailom je tvrdenie, že Google predtým naznačil, že nebude názov komercializovať... potom však aj tak pokračoval v súdnom konaní o ochranných známkach. Je to síce boj o ochranné známky, ale zároveň nesie v sebe energiu malého rozsahu medzi „veľkou platformou verzus špecializovaným výrobcom nástrojov“.
🏥 Štúdia ukazuje, že umelá inteligencia nie je lepšia ako iné metódy pre pacientov vyhľadávajúcich lekársku pomoc ↗
Nová štúdia zistila, že používanie umelej inteligencie na poskytovanie lekárskych rád pacientom neprekonalo iné prístupy – čo nie je prekvapujúce a mierne upokojujúce, v závislosti od toho, ako usilovne ste sledovali kontrolóry symptómov.
Neznamená to, že umelá inteligencia je v zdravotníctve zbytočná – len to, že „opýtajte sa bota“ nie je automaticky vylepšením oproti existujúcim možnostiam, najmä keď ide o presnosť a bezpečnosť.
🩺 Aplikácie a boty s umelou inteligenciou sa vkrádajú do medicíny. Lekári majú otázky. ↗
Vyšetrovanie sa zaoberá tým, ako sa zdravotnícke aplikácie a chatboty s umelou inteligenciou prenášajú do klinických priestorov – niekedy rýchlejšie, ako to dokážu usmernenia, dohľad alebo obyčajné dôkazy.
Lekári vyjadrujú obavy o spoľahlivosť, ujmu pre pacientov a o to, kto je zodpovedný, keď bot dáva rady, ktoré znejú sebavedomo, ale nesprávne... ako napríklad satelitná navigácia, ktorá trvá na tom, aby ste vošli autom do jazera, ale bez liekov.
📈 Generálny riaditeľ OpenAI hovorí, že ChatGPT opäť zaznamenal mesačný rast viac ako 10 %, informuje CNBC ↗
Generálny riaditeľ spoločnosti OpenAI údajne povedal, že ChatGPT sa vrátil k mesačnému rastu viac ako 10 % – čo je veľká vec, ak predpokladáme, že fáza „každý to už vyskúšal“ dosiahla vrchol.
Naznačuje to, že buď stále pribúdajú noví používatelia, alebo existujúci používatelia nachádzajú ďalšie dôvody, prečo zostať – alebo oboje. V každom prípade sa produkt správa menej ako módny výstrelok a skôr ako infraštruktúra… alebo sa to aspoň zdá.
Často kladené otázky
Čo je navrhovaná „dohoda“ o dátových centrách umelej inteligencie, ktorú presadzujú USA?
Je opísaný ako súbor záväzkov, s ktorými by sa veľké firmy dohodli pri budovaní alebo prevádzke rozsiahlych dátových centier umelej inteligencie. Zámerom je štandardizovať očakávania, aby sa tieto masívne výpočtové projekty nestali rozptýlenými alebo nekonzistentnými v rámci spoločností. Hoci špecifiká stále znejú nejasne, dôraz sa zdá byť kladený na praktické aspekty: spotreba energie, bezpečnosť a prípadne nejaká forma reportovania.
Prečo by USA chceli, aby spoločnosti podpísali dohodu o dátových centrách s umelou inteligenciou?
Dohoda môže stanoviť spoločné základné očakávania bez toho, aby nútila zákonodarcov navrhovať nové pravidlo pre každý hraničný prípad. Vzhľadom na to, že dátové centrá umelej inteligencie sa rýchlo rozširujú, tvorcovia politík sa často obávajú vplyvu na sieť, bezpečnostných rizík a prevádzkovej transparentnosti. Bežnou stratégiou je včasné zosúladenie najväčších hráčov, aby sa osvedčené postupy šírili rýchlejšie a v prípade problémov sa ľahšie vysledovala zodpovednosť.
Aké druhy záväzkov by mohli byť zahrnuté v dohode o dátovom centre s umelou inteligenciou?
Na základe toho, čo bolo predložené, by sa záväzky mohli vzťahovať na plánovanie energie (spôsob získavania a riadenia energie), bezpečnostné opatrenia (fyzické a kybernetické) a určitú formu podávania správ alebo zverejňovania informácií. V mnohých prípadoch sa podávanie správ stáva „ľahkou vrstvou presadzovania“, ktorá robí normy čitateľnými a merateľnými. Ak je dohoda dobrovoľná, tieto záväzky môžu byť formulované ako usmernenia, ktoré neskôr pomôžu formovať reguláciu.
Čo je to za žalobu týkajúcu sa nástroja na tvorbu filmov s umelou inteligenciou od spoločnosti Google s názvom „Flow“?
Spoločnosť Autodesk žaluje spoločnosť Google kvôli názvu „Flow“ s argumentom, že Autodesk už používa názov „Flow“ pre produkčný softvér a softvér na správu vizuálnych efektov. Spor je koncipovaný ako konflikt ochranných známok a značky spolu s tvrdením, že spoločnosť Google predtým naznačila, že názov nebude komercializovať, ale neskôr sa aj tak snažila o ochranné známky. Tieto prípady sa často týkajú priority značky a pravdepodobnosti zámeny.
Čo to znamená, že umelá inteligencia nebola lepšia ako iné metódy pre poskytovanie lekárskych rád pacientom?
Naznačuje to, že metóda „opýtajte sa bota“ nie je automaticky presnejšia ani bezpečnejšia ako existujúce spôsoby, akými pacienti vyhľadávajú pomoc. To môže byť upokojujúce, ak sa obávate príliš sebavedomých odpovedí od používateľov overujúcich príznaky alebo chatbotov. Nevylučuje to potenciálnu hodnotu umelej inteligencie v zdravotníctve, ale zdôrazňuje to potrebu dôkazov, dohľadu a starostlivej integrácie tam, kde chyby môžu spôsobiť škodu.
Prečo sa lekári obávajú zdravotníckych aplikácií a chatbotov s umelou inteligenciou?
Lekári sa obávajú spoľahlivosti, ujmy pre pacienta a toho, kto je zodpovedný, keď nástroj poskytuje isté, ale nesprávne rady. Problémom nie je len presnosť; ide aj o to, ako pacienti interpretujú výstupy a či systém ľudí nabáda k nebezpečnej samospráve. V klinickom prostredí sa nejasná zodpovednosť môže stať hlavným rizikom: pacienti môžu nástroju dôverovať, lekári ho nemusia kontrolovať a usmernenia môžu zaostávať za jeho prijatím.