Správy o umelej inteligencii 4. marca 2026

Zhrnutie noviniek o umelej inteligencii: 4. marca 2026

🏛️ Vláda vytvorí nové laboratórium, aby udržala Spojené kráľovstvo v rýchlom pruhu v oblasti prelomov v oblasti umelej inteligencie

Spojené kráľovstvo zriaďuje vládou podporované Laboratórium pre výskum základnej umelej inteligencie a prezentuje ho ako „neuveriteľnú“ prácu – takú, ktorá je riskantná, pomalá a niekedy sa vypláca tak, že všetci ostatní vyzerajú, akoby si zadriemali. ( GOV.UK )

Zameranie nie je len na „väčšie modely, viac GPU“ – ide o riešenie pretrvávajúcich nedostatkov, ako sú halucinácie, krátka pamäť a nepredvídateľné uvažovanie, a zároveň o poskytnutie prístupu výskumníkom k serióznym výpočtom prostredníctvom AI Research Resource. Znie to veľmi rozumne... a tiež, potichu, ako pokus zabrániť tomu, aby najlepšie mozgy Spojeného kráľovstva boli okamžite vysávané inde. ( GOV.UK )

🧨 Generálny riaditeľ spoločnosti Nvidia naznačuje ukončenie investícií do OpenAI a Anthropic

Jensen Huang signalizuje, že Nvidia možno nebude pokračovať v investovaní do popredných laboratórií umelej inteligencie rovnakým spôsobom – dynamika IPO (a samotný rozsah diskutovaných kontrol) sťažuje realizáciu tohto štýlu financovania. ( Reuters )

Je to tónová zmena, ktorú stojí za to zaznamenať: Nvidia je v celom tomto boome kráľom krompáčov a lopat, no zároveň naznačuje, že „vlastniť podiely v ťažobných spoločnostiach“ už nie je vždy cieľom. Alebo možno len nahlas vyhýba rizikám, čo generálni riaditelia robia, ako keby dýchali. ( Reuters )

🧩 Exkluzívne: Veľká technologická skupina podporuje Anthropic v spore s Pentagonom, keďže investori sa snažia o deeskaláciu konfliktu ohľadom ochranných opatrení v oblasti umelej inteligencie

Patová situácia spoločnosti Anthropic s Pentagonom sa mení na tlakový hrniec – investori údajne chcú znížiť teplotu, zatiaľ čo spoločnosť sa snaží držať svojho postoja k ochranným opatreniam (najmä v oblasti sledovania). ( Reuters )

Podtext príbehu je takmer hlasnejší ako samotný text: v ére umelej inteligencie nie je znenie zmluvy „právnym doberaním si“, ale v podstate ide o produktovú politiku – a tá rozhoduje o tom, či sa model stane nástrojom, zbraňou alebo rozsiahlou zodpovednosťou. ( Reuters )

🪖 Sam Altman pripúšťa, že OpenAI nedokáže kontrolovať používanie umelej inteligencie Pentagónom

Altman údajne povedal zamestnancom, že OpenAI nemôže kontrolovať, ako Pentagon používa svoju umelú inteligenciu po jej nasadení – čo dopadlo s buchnutím, pretože pomenovala presný strach, okolo ktorého ľudia krúžili. ( The Guardian )

Širším pozadím je stupňujúce sa trenie medzi „pomôžeme s pravidlami“ a „pomôžeme a bodka“, plus vnútorná a verejná spätná väzba, keď sa prijatie vojenskej pomoci zdá unáhlené alebo oportunistické. Etika je tu menej úhľadnou čiarou a skôr rozliatou farbou – každý do toho stúpi a potom sa háda, komu patrí. ( The Guardian )

🧬 Nové štipendium v ​​oblasti umelej inteligencie v genomike so Sangerovým inštitútom a Google DeepMind

Inštitút Wellcome Sanger otvára akademické štipendium financované programom DeepMind zamerané na aplikáciu umelej inteligencie v genomike – ide o prvé miesto svojho druhu pre štipendistu DeepMind v tejto špecifickej oblasti. ( sanger.ac.uk )

Zaujímavé (a úprimne povedané, trochu osviežujúce) je dôraz na nedostatočne preskúmané problémy genomiky, kde umelá inteligencia ešte nie je všadeprítomná – plus výslovná poznámka, že DeepMind neriadi výskum kolegov. Je to ako dať niekomu raketu a povedať „choď niečo objaviť“ namiesto „choď optimalizovať náš plán.“ ( sanger.ac.uk )

Často kladené otázky

Čo je Laboratórium základného výskumu umelej inteligencie podporované britskou vládou a čo bude robiť?

Vládou podporované Laboratórium základného výskumu umelej inteligencie je prezentované ako „nenápadný“ výskumný projekt – vysoko riziková práca, ktorej návratnosť môže trvať určitý čas. Namiesto toho, aby sa sústredilo len na škálovanie stále väčších modelov, zameriava sa na pretrvávajúce problémy, ako sú halucinácie, krátka pamäť a nepredvídateľné uvažovanie. Hlavnou myšlienkou je, že prelomové objavy pramenia zo základných poznatkov, nielen z pridávania ďalších grafických procesorov.

Ako by mohlo britské výskumné laboratórium pre základnú umelú inteligenciu pomôcť výskumníkom získať prístup k serióznym výpočtom?

Popri britskom laboratóriu pre výskum základnej umelej inteligencie plán zdôrazňuje prístup k rozsiahlym výpočtovým kapacitám prostredníctvom zdroja pre výskum umelej inteligencie. V praxi to znamená, že výskumníci môžu vykonávať experimenty, ktoré by inak boli obmedzené nákladmi alebo infraštruktúrou. Umožňuje to tiež tímom testovať nápady v rozsahu, v ktorom sa problémy ako spoľahlivosť a robustnosť stávajú konkrétnymi, nielen teoretickými.

Prečo Spojené kráľovstvo kladie dôraz na halucinácie, krátku pamäť a nepredvídateľné uvažovanie?

Tieto slabé stránky sa prejavia už pri nasadení a môžu rýchlo narušiť dôveru. Uvedené zameranie naznačuje, že cieľom nie je len schopnosť, ale aj spoľahlivosť – zníženie vymyslených výstupov, zlepšenie spôsobu, akým modely spracovávajú dlhší kontext, a zníženie nepredvídateľnosti uvažovania. Tento druh práce je často pomalší a rizikovejší, a preto sa označuje ako základný výskum.

Čo vlastne signalizuje zmena tónu spoločnosti Nvidia v otázke investovania do OpenAI alebo Anthropic?

Správa to chápe ako náznak, že Nvidia nemusí pokračovať v investovaní do popredných laboratórií rovnakým spôsobom, najmä vzhľadom na to, že dynamika IPO a obrovské šeky túto stratégiu komplikujú. Aj keď je lídrom v oblasti hardvéru umelej inteligencie, ktorý sa zameriava na „krompáče a lopaty“, naznačuje, že vlastnícke podiely nie sú vždy najlepšou voľbou. Mohlo by ísť aj o opatrné posolstvo, ktoré je bežné v komentároch manažérov.

Prečo je spor Anthropicu s Pentagonom o „ochrannom jazyku“ taký veľký problém?

Kľúčovým bodom článku je, že znenie zmluvy sa môže stať produktovou politikou – najmä ak sa týka sledovania a iných citlivých použití. Investori údajne chcú zmierniť konflikt, zatiaľ čo spoločnosť sa snaží držať svojho postoja k ochranným opatreniam. V mnohých nasadeniach umelej inteligencie tieto klauzuly formujú, na čo sa systém môže používať a aké riziká spoločnosť efektívne akceptuje.

Čo to znamená, keď Sam Altman hovorí, že OpenAI nemôže kontrolovať, ako Pentagon používa AI?

Opisuje praktické obmedzenie: po nasadení nástroja môže mať pôvodný vývojár obmedzenú schopnosť riadiť jeho následné používanie. To má veľký význam, pretože poukazuje na základný strach, ktorý ľudia vyjadrujú v súvislosti s jeho prijatím vojenskou službou – pravidlá môžu existovať v štádiu uzatvárania zmlúv, ale ich presadzovanie môže byť náročné. Odráža to tiež širšie napätie medzi „pomocou s obmedzeniami“ a „pomocou bez ohľadu na to“

Včerajšie správy o umelej inteligencii: 3. marca 2026

Nájdite najnovšiu umelú inteligenciu v oficiálnom obchode s asistentmi umelej inteligencie

O nás

Späť na blog