Správy o umelej inteligencii 15. februára 2026

Zhrnutie noviniek o umelej inteligencii: 15. február 2026

🦞 Zakladateľ OpenClaw, Steinberger, sa pripája k OpenAI, open-source bot sa stáva nadáciou

Peter Steinberger smeruje k OpenAI, aby presadzoval „osobných agentov“, zatiaľ čo samotný OpenClaw je založený na nejakej nadácii, takže zostane open source (a podporovaný). Toto rozdelenie je... celkom šikovné – najať si tvorcu, projekt zostať verejný.

OpenClawova prezentácia je osviežujúco praktická: triedenie e-mailov, papierovanie poistenia, odbavenie letov, otravné úlohy životnej administratívy. Je tiež na GitHube veľmi populárny a táto popularita priniesla obavy o bezpečnosť, najmä ak ho ľudia používajú neopatrne.

🪖 Pentagon má „už dosť“ odporu spoločnosti Anthropic voči použitiu modelu umelej inteligencie Claude armádou a môže prerušiť vzájomné vzťahy, uvádza sa v správe

Hlavný spor: Pentagon chce široký prístup „na všetky zákonné účely“ a Anthropic sa stále snaží udržiavať prísne obmedzenia týkajúce sa plne autonómnych zbraní a hromadného sledovania. To je ten druh nesúhlasu, ktorý znie filozoficky, kým niekto nepovie: „Možno vás nahradíme.“

Jedna podceňovaná nevýhoda – úradníci nechcú, aby model náhle zablokoval pracovné postupy uprostred procesu, a nechcú donekonečna vyjednávať o okrajových prípadoch (spravodlivé... ale aj fuj). Je tu skutočné napätie typu „kto drží kľúče“ a nie je to nenápadné.

🧠 Model budovania startupov na predpovedanie ľudského správania

Spoločnosť Simile získala kolo financovania vo výške 100 miliónov dolárov na vytvorenie modelu „obmedzeného učenia“ zameraného na predpovedanie toho, čo by ľudia mohli robiť – vrátane, veľmi konkrétne, predvídania pravdepodobných otázok v oblastiach, ako sú napríklad konferenčné hovory o hospodárskych výsledkoch. Úzky cieľ, veľká ambícia, trochu tajomná kombinácia.

Tento prístup sa opiera o rozhovory so skutočnými ľuďmi a údaje z behaviorálneho výskumu, potom spúšťa simulácie s agentmi umelej inteligencie, ktoré majú odrážať skutočné preferencie. Je to ako vytvoriť model počasia pre ľudské rozhodnutia... čo znie nemožne, kým to tak nie je.

🧑⚖️ Spravodajstvo: Biely dom tlačí na zákonodarcu z Utahu, aby zamietol zákon o transparentnosti umelej inteligencie

Snaha o transparentnosť v oblasti umelej inteligencie na úrovni štátu Utah sa stretáva s kritikou Bieleho domu, pričom predstavitelia naliehajú na navrhovateľa návrhu zákona, aby ho nepresadzoval. Návrh zákona je zameraný na transparentnosť a bezpečnosť detí – s čím sa len na základe čistého pohľadu ťažko polemizovať.

Ale väčší boj sa týka jurisdikcie: kto bude určovať pravidlá, štáty alebo federálna vláda. A áno, je to vrčanie – ako keby dvaja ľudia chytili ten istý volant a trvali na tom, že oni sú ten pokojný.

🎬 ByteDance sa po hrozbe od Disney zaväzuje zabrániť neoprávnenému použitiu IP adresy v nástroji na video s umelou inteligenciou

Spoločnosť Disney vydala zákaz používania generátora videa s umelou inteligenciou od spoločnosti ByteDance a spoločnosť ByteDance tvrdí, že posilňuje záruky, aby zabránila neoprávnenému použitiu duševného vlastníctva a podoby. Sťažnosť údajne spočíva v tom, že nástroj dokáže zobraziť známe postavy z franšízy, akoby to boli len... nálepky vo verejnej doméne.

Je to kolízia, ktorú všetci predvídali: nástroje na tvorbu virálnych videí s umelou inteligenciou sa rýchlo vyvíjajú, štúdiá vedú súdne spory a „pridáme záruky“ sa stáva predvoleným jazykom ospravedlnenia. Technológia však vyzerá ako mágia – a právna stránka vyzerá ako gravitácia.

Často kladené otázky

Čo to znamená, že zakladateľ OpenClaw sa pridal k OpenAI, zatiaľ čo OpenClaw sa presunul k nadácii?

Signalizuje to rozkol medzi osobou, ktorá buduje „osobných agentov“, a projektom, ktorý zostáva verejne riadený. ​​Steinberger sa pripojil k OpenAI a naznačuje, že sa tam zameria na rozvoj produktov v štýle agentov. Umiestnenie OpenClaw do nadácie má za cieľ udržať ho ako open source a udržateľne podporovaný. V praxi sa tento krok zameriava na zachovanie dôvery komunity, zatiaľ čo tvorca ide tam, kde sú zdroje.

Prečo sa agenti AI v štýle OpenClaw zameriavajú na úlohy ako e-mail a papierovanie?

Pretože práca „v oblasti životnej administratívy“ je opakujúca sa, založená na pravidlách a časovo náročná, robí z nej praktický cieľ automatizácie. Uvedené príklady – triedenie e-mailov, poistné papiere a odbavenie letov – sú úzke úlohy s jasnými kritériami úspešnosti. Toto zameranie môže agentom dať pocit, že sú cenní skôr ako asistenti s otvorenejším prístupom. Zdôrazňuje tiež, prečo je dôležitá starostlivá kontrola prístupu, keď agenti dotýkajú svojich osobných účtov.

Ako môžete nasadiť open-source agenta AI, ako je OpenClaw, bez toho, aby ste spôsobili bezpečnostné problémy?

Zaobchádzajte s ním ako so softvérom, ktorý dokáže vidieť citlivé údaje, nie ako s hračkárskym skriptom. Bežným prístupom je uzamknúť prihlasovacie údaje, obmedziť povolenia na požadované minimum a uchovávať protokoly a audítorské záznamy. Spúšťajte ho v obmedzenom prostredí a oddeľte ho od systémov s vysokou hodnotou. Mnohé bezpečnostné obavy pramenia z neopatrného nasadenia, najmä keď ľudia vystavujú koncové body alebo tokeny bez silných ochranných opatrení.

Prečo je Pentagon nespokojný s obmedzeniami spoločnosti Anthropic týkajúcimi sa vojenského použitia Claude?

Spor sa sústreďuje na rozsah a kontrolu: Pentagon chce široký prístup „na všetky zákonné účely“, zatiaľ čo Anthropic je opisovaný ako systém, ktorý si udržiava prísne obmedzenia týkajúce sa plne autonómnych zbraní a hromadného sledovania. Úradníci tiež nechcú, aby modely blokovali pracovné postupy uprostred procesu alebo vyžadovali nekonečné rokovania o okrajových prípadoch. Toto napätie je menej abstraktné, ako sa zdá – ide o to, kto rozhoduje o tom, čo môže model robiť v reálnych operáciách.

Ako sa startupy snažia predpovedať ľudské správanie pomocou umelej inteligencie a prečo sa to javí ako kontroverzné?

Príklad Simile sleduje model „obmedzeného učenia“ zameraný na predpovedanie toho, čo by ľudia mohli robiť, vrátane predvídania pravdepodobných otázok v kontextoch, ako sú konferenčné hovory o hospodárskych výsledkoch. Opísaný prístup kombinuje rozhovory s údajmi z behaviorálneho výskumu a simuláciami pomocou agentov umelej inteligencie, ktorí majú odrážať skutočné preferencie. Pôsobí to zvláštne, pretože posúva umelú inteligenciu z reagovania na ľudí na ich predpovedanie. Výzvou je udržať tvrdenia ohraničené a vyhnúť sa nadmernej sebadôvere.

Čo sa stane, keď nástroje umelej inteligencie na tvorbu videa generujú postavy chránené autorskými právami, ako napríklad v konflikte ByteDance a Disney?

Hlásený vzorec je známy: štúdio vydá príkaz na zastavenie činnosti a platforma reaguje posilnením záruk, aby sa zabránilo neoprávnenému použitiu duševného vlastníctva alebo podobnosti. V mnohých nástrojoch záruky znamenajú prísnejšie filtre obsahu, lepšiu detekciu rozpoznateľných postáv a jasnejšie presadzovanie pravidiel pre používateľov. Základným konfliktom je rýchlosť verzus zodpovednosť – generovanie virálnych signálov sa rýchlo vyvíja a presadzovanie práv funguje ako gravitácia. S rozširovaním generátorov videa očakávajte ďalšie takéto kolízie.

Včerajšie správy o umelej inteligencii: 13. februára 2026

Nájdite najnovšiu umelú inteligenciu v oficiálnom obchode s asistentmi umelej inteligencie

O nás

Späť na blog