⚖️ Anthropic žaluje Pentagon, aby zablokoval zaradenie na čiernu listinu kvôli obmedzeniam používania umelej inteligencie ↗
Spoločnosť Anthropic sa obrátila na súd so svojím sporom s Pentagonom po tom, čo bola označená za riziko pre dodávateľský reťazec. Spoločnosť tvrdí, že tento krok bol nezákonnou odvetou za odmietnutie zmierniť obmedzenia týkajúce sa autonómnych zbraní a domáceho sledovania – čo radí tento spor medzi najpálčivejšie body v politike umelej inteligencie v súčasnosti. ( Reuters )
Vláda chce flexibilitu pre „akékoľvek zákonné použitie“, zatiaľ čo Anthropic tvrdí, že súkromné laboratóriá by mali mať stále možnosť stanoviť si prísne bezpečnostné hranice. Toto sa stalo jedným z najjasnejších testov, či spoločnosť zaoberajúca sa umelou inteligenciou môže povedať „nie“ vojenským podmienkam bez toho, aby za to bola zneuctená. ( Reuters )
🧑💻 Zamestnanci spoločností OpenAI a Google podporujú žalobu spoločnosti Anthropic proti Pentagonu ↗
Táto žaloba si rýchlo získala podporu aj zvnútra konkurenčných laboratórií. Takmer 40 zamestnancov spoločností OpenAI a Google podporilo Anthropic v stanovisku amicus curiae s argumentom, že odvetné opatrenia voči firmám za porušenie bezpečnostných predpisov v oblasti umelej inteligencie sú v rozpore s verejným záujmom. ( The Verge )
Takže áno, konkurenti sa zrazu ocitli na rovnakej strane – aspoň v tomto bode. Zadanie sa zameriava na hromadný dohľad a nespoľahlivé autonómne zbrane, vďaka čomu celá záležitosť pôsobí menej ako štandardné ostreľovanie zo Silicon Valley a skôr ako skutočná priemyselná čiara v piesku... alebo možno v blate. ( The Verge )
🛡️ OpenAI získava Promptfoo, aby zabezpečila svojich AI agentov ↗
Spoločnosť OpenAI oznámila, že kupuje Promptfoo, startup zameraný na ochranu rozsiahlych jazykových modelov pred útokmi nepriateľov. Plánom je integrovať jej technológiu do OpenAI Frontier, podnikovej platformy spoločnosti pre agentov umelej inteligencie. ( TechCrunch )
Je to výpovedný krok. Každý chce, aby agentská umelá inteligencia robila viac, rýchlejšie a všade – ale bezpečnostná stránka zaostáva, či už trochu alebo veľmi. Táto dohoda naznačuje, že OpenAI si myslí, že ďalší veľký pretek nie je len o inteligentnejších agentov, ale aj o bezpečnejších. ( TechCrunch )
🧪 Anthropic spúšťa nástroj na kontrolu kódu, ktorý kontroluje záplavu kódu generovaného umelou inteligenciou ↗
Spoločnosť Anthropic spustila Code Review v rámci Claude Code, zameranú na tímy topiace sa v pull requestoch vytvorených nástrojmi na kódovanie s umelou inteligenciou. Používa viacero agentov paralelne na skenovanie kódu, označovanie logických problémov, hodnotenie závažnosti a zanechávanie komentárov priamo na GitHube. ( TechCrunch )
Návrh je dosť jednoduchý – umelá inteligencia generuje kód rýchlejšie, ako si ho ľudia dokážu rozumne skontrolovať, takže teraz musí umelá inteligencia skontrolovať tú druhú. Je to trochu nepraktické riešenie, ale praktické. Anthropic tvrdí, že je zamerané na podnikových používateľov, ktorí už vidia masívny výstup kódu z Claude Code. ( TechCrunch )
💰 Hodnota spoločnosti Nscale podporovanej spoločnosťou Nvidia v novom kole financovania dosiahla 14,6 miliardy dolárov ↗
Britská spoločnosť Nscale, ktorá sa zaoberá infraštruktúrou umelej inteligencie, získala v kole financovania série C 2 miliardy dolárov, čím dosiahla hodnotu 14,6 miliardy dolárov. Medzi podporovateľov patrili spoločnosti Aker, 8090 Industries, Nvidia, Citadel, Dell a Jane Street, čo predstavuje pomerne silný prejav dôvery. ( Reuters )
Toto je dôležité, pretože nejde o ďalšie uvedenie modelu na trh ani o vylepšenie chatbota. Je to tá časť boomu, kde sa pracujú krompáče a lopaty – výpočty, infraštruktúra, kapacita, všetky ťažké stroje za oponou. Možno nie okázalé, ale práve tam sa teraz hrnie veľká časť peňazí. ( Reuters )
🧠 Yann LeCun a jeho AMI Labs získali 1,03 miliardy dolárov na vybudovanie modelov sveta ↗
Yann LeCunov nový podnik s názvom AMI Labs získal 1,03 miliardy dolárov pri predfinančnom ohodnotení 3,5 miliardy dolárov. Spoločnosť sa zameriava na „svetové modely“ – systémy umelej inteligencie, ktoré sa majú učiť zo samotnej reality, a nie primárne z jazyka. ( TechCrunch )
To je priamy filozofický útok na súčasný konsenzus zameraný na LLM a navyše pozoruhodne priamočiary. LeCun už roky tvrdí, že dnešné jazykové modely nás nedostanú až k inteligencii na ľudskej úrovni, takže toto nastolenie mení tento argument na veľmi drahý experiment. ( TechCrunch )
🇨🇳 Čínske technologické centrá propagujú agenta umelej inteligencie OpenClaw napriek bezpečnostným varovaniam ↗
Niekoľko čínskych miestnych samospráv podporuje OpenClaw, agenta umelej inteligencie, ktorý sa rýchlo šíri napriek bezpečnostným obavám spojeným s jeho prístupom k osobným údajom. Oficiálna nálada teda vyzerá takto: áno, existujú riziká – a áno, poďme to aj tak rozšíriť. ( Reuters )
Toto rozdelenie je hlavným problémom. Lokálne centrá chcú ekonomický vzostup a dynamiku ekosystému, zatiaľ čo regulátori varujú pred únikom údajov. Je to už známy vzorec umelej inteligencie – najprv šprint, potom upratovanie zábradlia, alebo sa to tak aspoň zdá. ( Reuters )
Často kladené otázky
Prečo Anthropic žaluje Pentagon kvôli obmedzeniam používania umelej inteligencie?
Spoločnosť Anthropic tvrdí, že Pentagon označil žalobu za riziko pre dodávateľský reťazec po tom, čo spoločnosť odmietla širšie podmienky, ktoré by sa mohli rozšíriť na autonómne zbrane a domáci dohľad. Žaloba sa tak týka viac než len statusu dodávateľa. Testuje sa, či laboratórium umelej inteligencie dokáže dodržať pevné bezpečnostné limity a zároveň súťažiť o vládne zákazky bez toho, aby bolo penalizované.
Prečo zamestnanci OpenAI a Googlu podporujú Anthropic v tomto spore o bezpečnosť umelej inteligencie?
Z vyhlásenia amicus curiae vyplýva, že mnohí ľudia v konkurenčných laboratóriách to vnímajú ako precedensový problém bezpečnosti umelej inteligencie, nielen ako boj medzi jednou spoločnosťou a jednou agentúrou. Obávajú sa, že potrestanie dodávateľa za dodržiavanie obmedzení by mohlo vyvíjať tlak na širší trh, aby oslabil záruky. V praxi by to mohlo ovplyvniť spôsob, akým sa budú rokovať o budúcich zmluvách o umelej inteligencii v oblasti obrany a verejného sektora.
Čo by mohol prípad Anthropic-Pentagon zmeniť v oblasti politiky umelej inteligencie a obranných zmlúv?
Ak Anthropic vyhrá, spoločnosti zaoberajúce sa umelou inteligenciou môžu mať silnejšiu pozíciu na definovanie neprijateľného použitia, a to aj pri predaji do citlivých vládnych prostredí. Ak prehrá, agentúry by mohli získať vplyv na požadovanie širších podmienok „zákonného použitia“ od dodávateľov. V každom prípade tento spor pravdepodobne ovplyvní formuláciu obstarávania, hodnotenie rizík a spôsob, akým sú bezpečnostné záruky zahrnuté do obranných zmlúv.
Prečo OpenAI kúpila Promptfoo pre AI agentov?
Spoločnosť Promptfoo je známa testovaním rozsiahlych jazykových modelov proti výzvam typu „adversary“ a iným bezpečnostným slabinám. Začlenenie tohto druhu nástrojov do platformy podnikových agentov OpenAI naznačuje, že spoločnosť vníma bezpečnejšie nasadenie ako konkurenčnú výhodu a nie ako vedľajšiu úlohu. Keďže agenti AI preberajú viac dôležitejšej práce, testovanie odolnosti a zneužívania sa stáva oveľa ťažšie ignorovať.
Ako môžu tímy bezpečnejšie zvládnuť záplavu kódu generovaného umelou inteligenciou?
Nová funkcia kontroly kódu od spoločnosti Anthropic v rámci Claude Code je určená pre tímy zahltené pull requestmi generovanými nástrojmi na kódovanie s umelou inteligenciou. Používa viacero agentov paralelne na identifikáciu logických problémov, hodnotenie závažnosti a zanechávanie komentárov na GitHube. Nástroje ako tento zvyčajne pomáhajú pri triedení objemu, ale ľudskí recenzenti sú stále dôležití pre architektúru, kontext a konečné schválenie.
Prečo sa do infraštruktúry umelej inteligencie práve teraz investuje toľko?
Najnovšie kolo financovania spoločnosti Nscale zdôrazňuje, že odvetvie umelej inteligencie stále investuje obrovské množstvo kapitálu do výpočtovej techniky, infraštruktúry a kapacity. Tieto výdavky môžu byť menej viditeľné ako okázalé uvedenie modelu na trh, ale sú základom všetkého ostatného. Keď dopyt po školení a nasadení neustále rastie, spoločnosti predávajúce krompáče a lopaty sa často stávajú jednými z najväčších víťazov.
Čo sú svetové modely a prečo na ne Yann LeCun vsádza?
Modely sveta sú systémy umelej inteligencie navrhnuté tak, aby sa učili zo správania sveta, a nie aby sa spoliehali primárne na jazykové údaje. To je dôležité, pretože Yann LeCun už dlho tvrdí, že jazykové modely samy osebe pravdepodobne nedosiahnu inteligenciu na ľudskej úrovni. AMI Labs premieňa tento názor na významnú komerčnú stávku na inú cestu pre pokročilý výskum umelej inteligencie.
Prečo čínske technologické centrá podporujú OpenClaw napriek bezpečnostným varovaniam?
Príbeh OpenClaw ukazuje známy rozkol na rýchlo sa rozvíjajúcich technologických trhoch: miestne samosprávy chcú rast, dotácie a dynamiku ekosystému, zatiaľ čo regulačné orgány sa obávajú o únik údajov a bezpečnosť. Podpora agenta napriek varovaniam naznačuje, že na niektorých miestach prevládajú ekonomické stimuly. Pre pozorovateľov je to ďalšia pripomienka, že prijatie často prebieha rýchlejšie ako dohľad.