🧠 Nvidia tvrdí, že zváži investíciu do IPO OpenAI, povedal Huang pre CNBC ↗
Jensen Huang zo spoločnosti Nvidia verejne naznačil, že spoločnosť je stále otvorená podpore ďalšej rozsiahlej zbierky finančných prostriedkov pre OpenAI – a dokonca aj prípadnej IPO. Nesie to energiu „sme v poriadku, všetko je v poriadku“... ale to je zároveň aj súčasť posolstva.
Hovorí sa tu o rozsahu: stále kolujú reči o masívnom kole (a masívnom ocenení), zatiaľ čo správy naznačujú, že OpenAI zvažuje alternatívy k niektorým z najnovších čipov od Nvidie. Nikto nahlas nehovorí o „rozchode“, ale v kuchyni je cítiť slabý závan dymu.
🏭 Generálny riaditeľ spoločnosti Intel hovorí, že spoločnosť bude vyrábať grafické procesory (GPU), ktoré spopularizovala spoločnosť Nvidia ↗
Generálny riaditeľ spoločnosti Intel, Lip-Bu Tan, hovorí, že Intel sa vrhá na grafické procesory – krompáče a lopaty modernej umelej inteligencie počas zlatej horúčky. A áno, je to vstup na pôdu spoločnosti Nvidia s čižmami na nohách.
Intel tiež priviedol vedúceho architekta (predtým pôsobiaceho v Qualcomme), aby viedol úsilie o GPU, s počiatočným zameraním na dátové centrá. Podtext je jasný: ak sa chcete vrátiť do diskusie o výpočtoch s umelou inteligenciou, potrebujete seriózny príbeh o GPU, nielen prezentáciu.
🕵️♀️ ICO oznamuje vyšetrovanie spoločnosti Grok ↗
Britský dozorný orgán pre ochranu údajov formálne vyšetruje nakladanie s osobnými údajmi súvisiacimi so systémom Grok a tiež potenciál systému generovať škodlivé sexualizované snímky. Táto druhá časť je varovným signálom, ktorý môžete počuť z ulice.
Vyšetrovanie menuje subjekt X, ktorý riadi dáta v kontexte EÚ/EHP, aj samotnú xAI – v podstate: „kto ju vytvoril, kto ju riadil, kto ju pustil do voľnej prírody?“ Je to jeden z tých momentov, keď sa „rýchly postup“ stretáva s „papierovačkou, ktorá štípe“
💻 OpenAI sa posúva smerom k modelu autonómnych tímov so spustením Codex Desktop ↗
Spoločnosť OpenAI údajne spustila desktopovú aplikáciu pre macOS pre Codex, ktorá ju prezentuje skôr ako správu malých kódovacích agentov, ktorí paralelne spúšťajú úlohy, a nie ako automatické dopĺňanie. To je buď budúcnosť softvéru, alebo veľmi drahý spôsob, ako vymýšľať nové triedy chýb.
Cieľom je „dlhodobé úlohy“ plus dohľad, s prvkami ako sandboxing a nástroje pre workflow, ktoré zabránia agentom pošliapať vaše úložisko. Je to zmena postoja: nepíšete, ale režírujete – ako filmová scéna, kde herci občas prepíšu scenár.
🧯 „Šírenie deepfakov a ďalší spoločníci s umelou inteligenciou“: Sedem ponaučení z najnovšej správy o bezpečnosti umelej inteligencie ↗
Objavila sa veľká medzinárodná správa o bezpečnosti umelej inteligencie, ktorá v podstate hovorí, že schopnosti sa zlepšujú, ale ovládanie je stále neisté. Správa poukazuje na „nestály“ výkon (v jednej sekunde brilantný, v ďalšej sebavedomo nesprávny), čo sa zdá... bolestne známe.
Taktiež poukazuje na zrýchľujúce sa deepfaky, rastúcu popularitu spoločníkov s umelou inteligenciou (s m•s•s•y emocionálnej väzby) a nepríjemný problém dvojakého použitia v bio/chemických vedomostiach. Atmosféra je takáto: motor sa zrýchlil, volant nie.
Často kladené otázky
Čo povedala Nvidia o investovaní do IPO OpenAI a prečo je to dôležité?
Generálny riaditeľ spoločnosti Nvidia Jensen Huang povedal, že spoločnosť zváži investíciu, ak sa OpenAI nakoniec stane verejne obchodovateľnou spoločnosťou, čo je signálom, že tento vzťah zostáva strategicky významný. V tomto cykle správ o technológiách umelej inteligencie je podtextom rozsah: väčšie kolá financovania sa zvyčajne premietajú do väčšieho dopytu po výpočtovej technike. Zároveň to pôsobí ako tiché uistenie pre trhy, že veľké partnerstvá v oblasti umelej inteligencie dokážu udržať stabilitu aj pod konkurenčným tlakom.
Hľadá OpenAI alternatívy k najnovším čipom od spoločnosti Nvidia?
Správy naznačujú, že OpenAI hľadá alternatívy k niektorým z najnovších čipov od spoločnosti Nvidia, čo môže poukazovať na niekoľko praktických motivácií. V mnohých vývojových procesoch tímy hodnotia viacerých dodávateľov, aby znížili náklady, obišli úzke miesta v dodávkach alebo vyladili výkon pre konkrétne pracovné zaťaženia. To však automaticky neznamená rozdelenie – častejšie to odráža pákový efekt, redundanciu a neustálu optimalizáciu v rýchlo sa meniacom hardvérovom prostredí.
Prečo Intel zrazu zdôrazňuje grafické procesory (GPU) pre úlohy umelej inteligencie?
Generálny riaditeľ spoločnosti Intel, Lip-Bu Tan, povedal, že Intel bude vyrábať grafické procesory (GPU) so zameraním na dátové centrá, čo je explicitný krok do kľúčového územia spoločnosti Nvidia. GPU sú „krompáčmi a lopatami“ pre moderné trénovanie a inferenciu umelej inteligencie, takže dôveryhodný plán vývoja GPU je priamou cestou späť do oblasti výpočtovej techniky. Táto správa o technológii umelej inteligencie tiež naznačuje, že Intel chce súťažiť v hĺbke platformy, nielen v CPU.
Čo vyšetruje britská ICO v súvislosti s Grok a xAI?
Úrad britského komisára pre informácie (ICO) oznámil formálne vyšetrovanie manipulácie s osobnými údajmi súvisiacimi so systémom Grok a potenciálu systému generovať škodlivé sexuálne zobrazenie. Vyšetrovanie mení subjekt X, ktorý kontroluje údaje v kontexte EÚ/EHP, ako aj xAI, pričom sa zameriava na to, kto je za čo zodpovedný. Medzi bežné výsledky v takýchto prípadoch patria žiadosti o informácie, požadované zmeny procesov a potenciálne opatrenia na presadzovanie práva.
Čo je Codex Desktop a ako „kódovací agenti“ menia každodennú prácu?
Codex Desktop je opísaný ako aplikácia pre macOS, ktorá nie je prezentovaná ako automatické dopĺňanie a viac ako spôsob dohľadu nad paralelnými, dlhotrvajúcimi kódovacími úlohami. Bežným prístupom je zaobchádzať s agentmi ako s juniornými spolupracovníkmi: prideľovať prácu s úzkym rozsahom, vyžadovať kontrolné body a kontrolovať výstupy pred zlúčením. Nástroje ako sandbox a ochranné zábrany pracovného postupu sú dôležité, pretože agentické systémy sa môžu rýchlo meniť – a môžu tiež priniesť nové, prekvapivé režimy zlyhania.
Aké sú najdôležitejšie poznatky z najnovšej správy o bezpečnosti umelej inteligencie (deepfakes, spoločníci, dvojité použitie)?
Správa zdôrazňuje, že schopnosti umelej inteligencie sa zrýchľujú, zatiaľ čo kontrola zostáva nerovnomerná, vrátane „nestáleho“ výkonu, ktorý sa môže meniť od vynikajúceho až po sebavedomo nesprávny. Poukazuje tiež na zrýchľujúce sa deepfaky, rastúce používanie partnerov umelej inteligencie s rizikami emocionálnej väzby a obavy z dvojakého použitia v oblasti biologických/chemických vedomostí. V reakcii na to organizácie zvyčajne investujú do monitorovania, vytvárania red-teamingových systémov, politických zábran a jasných eskalačných ciest, keď sa modely správajú neočakávane.