🦞 Zakladateľ OpenClaw, Steinberger, sa pripája k OpenAI, open-source bot sa stáva nadáciou ↗
Peter Steinberger smeruje k OpenAI, aby presadzoval „osobných agentov“, zatiaľ čo samotný OpenClaw je založený na nejakej nadácii, takže zostane open source (a podporovaný). Toto rozdelenie je... celkom šikovné – najať si tvorcu, projekt zostať verejný.
OpenClawova prezentácia je osviežujúco praktická: triedenie e-mailov, papierovanie poistenia, odbavenie letov, otravné úlohy životnej administratívy. Je tiež na GitHube veľmi populárny a táto popularita priniesla obavy o bezpečnosť, najmä ak ho ľudia používajú neopatrne.
🪖 Pentagon má „už dosť“ odporu spoločnosti Anthropic voči použitiu modelu umelej inteligencie Claude armádou a môže prerušiť vzájomné vzťahy, uvádza sa v správe ↗
Hlavný spor: Pentagon chce široký prístup „na všetky zákonné účely“ a Anthropic sa stále snaží udržiavať prísne obmedzenia týkajúce sa plne autonómnych zbraní a hromadného sledovania. To je ten druh nesúhlasu, ktorý znie filozoficky, kým niekto nepovie: „Možno vás nahradíme.“
Jedna podceňovaná nevýhoda – úradníci nechcú, aby model náhle zablokoval pracovné postupy uprostred procesu, a nechcú donekonečna vyjednávať o okrajových prípadoch (spravodlivé... ale aj fuj). Je tu skutočné napätie typu „kto drží kľúče“ a nie je to nenápadné.
🧠 Model budovania startupov na predpovedanie ľudského správania ↗
Spoločnosť Simile získala kolo financovania vo výške 100 miliónov dolárov na vytvorenie modelu „obmedzeného učenia“ zameraného na predpovedanie toho, čo by ľudia mohli robiť – vrátane, veľmi konkrétne, predvídania pravdepodobných otázok v oblastiach, ako sú napríklad konferenčné hovory o hospodárskych výsledkoch. Úzky cieľ, veľká ambícia, trochu tajomná kombinácia.
Tento prístup sa opiera o rozhovory so skutočnými ľuďmi a údaje z behaviorálneho výskumu, potom spúšťa simulácie s agentmi umelej inteligencie, ktoré majú odrážať skutočné preferencie. Je to ako vytvoriť model počasia pre ľudské rozhodnutia... čo znie nemožne, kým to tak nie je.
🧑⚖️ Spravodajstvo: Biely dom tlačí na zákonodarcu z Utahu, aby zamietol zákon o transparentnosti umelej inteligencie ↗
Snaha o transparentnosť v oblasti umelej inteligencie na úrovni štátu Utah sa stretáva s kritikou Bieleho domu, pričom predstavitelia naliehajú na navrhovateľa návrhu zákona, aby ho nepresadzoval. Návrh zákona je zameraný na transparentnosť a bezpečnosť detí – s čím sa len na základe čistého pohľadu ťažko polemizovať.
Ale väčší boj sa týka jurisdikcie: kto bude určovať pravidlá, štáty alebo federálna vláda. A áno, je to vrčanie – ako keby dvaja ľudia chytili ten istý volant a trvali na tom, že oni sú ten pokojný.
🎬 ByteDance sa po hrozbe od Disney zaväzuje zabrániť neoprávnenému použitiu IP adresy v nástroji na video s umelou inteligenciou ↗
Spoločnosť Disney vydala zákaz používania generátora videa s umelou inteligenciou od spoločnosti ByteDance a spoločnosť ByteDance tvrdí, že posilňuje záruky, aby zabránila neoprávnenému použitiu duševného vlastníctva a podoby. Sťažnosť údajne spočíva v tom, že nástroj dokáže zobraziť známe postavy z franšízy, akoby to boli len... nálepky vo verejnej doméne.
Je to kolízia, ktorú všetci predvídali: nástroje na tvorbu virálnych videí s umelou inteligenciou sa rýchlo vyvíjajú, štúdiá vedú súdne spory a „pridáme záruky“ sa stáva predvoleným jazykom ospravedlnenia. Technológia však vyzerá ako mágia – a právna stránka vyzerá ako gravitácia.
Často kladené otázky
Čo to znamená, že zakladateľ OpenClaw sa pridal k OpenAI, zatiaľ čo OpenClaw sa presunul k nadácii?
Signalizuje to rozkol medzi osobou, ktorá buduje „osobných agentov“, a projektom, ktorý zostáva verejne riadený. Steinberger sa pripojil k OpenAI a naznačuje, že sa tam zameria na rozvoj produktov v štýle agentov. Umiestnenie OpenClaw do nadácie má za cieľ udržať ho ako open source a udržateľne podporovaný. V praxi sa tento krok zameriava na zachovanie dôvery komunity, zatiaľ čo tvorca ide tam, kde sú zdroje.
Prečo sa agenti AI v štýle OpenClaw zameriavajú na úlohy ako e-mail a papierovanie?
Pretože práca „v oblasti životnej administratívy“ je opakujúca sa, založená na pravidlách a časovo náročná, robí z nej praktický cieľ automatizácie. Uvedené príklady – triedenie e-mailov, poistné papiere a odbavenie letov – sú úzke úlohy s jasnými kritériami úspešnosti. Toto zameranie môže agentom dať pocit, že sú cenní skôr ako asistenti s otvorenejším prístupom. Zdôrazňuje tiež, prečo je dôležitá starostlivá kontrola prístupu, keď agenti dotýkajú svojich osobných účtov.
Ako môžete nasadiť open-source agenta AI, ako je OpenClaw, bez toho, aby ste spôsobili bezpečnostné problémy?
Zaobchádzajte s ním ako so softvérom, ktorý dokáže vidieť citlivé údaje, nie ako s hračkárskym skriptom. Bežným prístupom je uzamknúť prihlasovacie údaje, obmedziť povolenia na požadované minimum a uchovávať protokoly a audítorské záznamy. Spúšťajte ho v obmedzenom prostredí a oddeľte ho od systémov s vysokou hodnotou. Mnohé bezpečnostné obavy pramenia z neopatrného nasadenia, najmä keď ľudia vystavujú koncové body alebo tokeny bez silných ochranných opatrení.
Prečo je Pentagon nespokojný s obmedzeniami spoločnosti Anthropic týkajúcimi sa vojenského použitia Claude?
Spor sa sústreďuje na rozsah a kontrolu: Pentagon chce široký prístup „na všetky zákonné účely“, zatiaľ čo Anthropic je opisovaný ako systém, ktorý si udržiava prísne obmedzenia týkajúce sa plne autonómnych zbraní a hromadného sledovania. Úradníci tiež nechcú, aby modely blokovali pracovné postupy uprostred procesu alebo vyžadovali nekonečné rokovania o okrajových prípadoch. Toto napätie je menej abstraktné, ako sa zdá – ide o to, kto rozhoduje o tom, čo môže model robiť v reálnych operáciách.
Ako sa startupy snažia predpovedať ľudské správanie pomocou umelej inteligencie a prečo sa to javí ako kontroverzné?
Príklad Simile sleduje model „obmedzeného učenia“ zameraný na predpovedanie toho, čo by ľudia mohli robiť, vrátane predvídania pravdepodobných otázok v kontextoch, ako sú konferenčné hovory o hospodárskych výsledkoch. Opísaný prístup kombinuje rozhovory s údajmi z behaviorálneho výskumu a simuláciami pomocou agentov umelej inteligencie, ktorí majú odrážať skutočné preferencie. Pôsobí to zvláštne, pretože posúva umelú inteligenciu z reagovania na ľudí na ich predpovedanie. Výzvou je udržať tvrdenia ohraničené a vyhnúť sa nadmernej sebadôvere.
Čo sa stane, keď nástroje umelej inteligencie na tvorbu videa generujú postavy chránené autorskými právami, ako napríklad v konflikte ByteDance a Disney?
Hlásený vzorec je známy: štúdio vydá príkaz na zastavenie činnosti a platforma reaguje posilnením záruk, aby sa zabránilo neoprávnenému použitiu duševného vlastníctva alebo podobnosti. V mnohých nástrojoch záruky znamenajú prísnejšie filtre obsahu, lepšiu detekciu rozpoznateľných postáv a jasnejšie presadzovanie pravidiel pre používateľov. Základným konfliktom je rýchlosť verzus zodpovednosť – generovanie virálnych signálov sa rýchlo vyvíja a presadzovanie práv funguje ako gravitácia. S rozširovaním generátorov videa očakávajte ďalšie takéto kolízie.