💰 Sequoia potichu skáče do mega-kola Anthropic ↗
Spoločnosť Sequoia, ktorá už spolupracuje s viacerými významnými laboratóriami umelej inteligencie, sa údajne pripája k obrovskému náboru Anthropic. Je to krok, ktorý posúva celú tú frázu o „konfliktoch, žiadnych konfliktoch“ na vyššiu úroveň, či už si to niekto prizná alebo nie.
Hovorí sa, že toto kolo bude zahŕňať aj ďalšie ťažké kontroly, ktoré posúvajú Anthropic ďalej do tej najvyššej úrovne s mega ohodnotením. Pretrvávajú vibrácie bublín. Aj toto by mohla byť nová norma, čo je nepríjemné.
📢 ChatGPT začína flirtovať s reklamami – tentoraz naozaj ↗
OpenAI údajne testuje reklamy pre niektorých amerických používateľov na lacnejších úrovniach, pričom vyššie platené úrovne zostanú bez reklám. Sľub je, že reklamy nebudú ovplyvňovať odpovede – teoreticky upokojujúce, aj keď reflex dôvery spôsobuje mierne šklbnutie.
Väčší podtext je jednoduchý: vyvodzovanie záverov je drahé a samotné predplatné nemusí pokryť všetko navždy... alebo sa to aspoň zdá. Napriek tomu, keď prvýkrát uvidíte slovo „sponzorované“ kdekoľvek v blízkosti chatbota, niečo sa vo vašej hlave zmení. Atmosféra sa zmení.
📚 Vydavatelia sa snažia nahrnúť žalobu spoločnosti Google ohľadom školenia umelej inteligencie ↗
Skupina vydavateľov sa snaží pripojiť k žalobe, ktorá obviňuje spoločnosť Google z používania diel chránených autorskými právami na trénovanie jej systémov umelej inteligencie. Tento právny spor sa neustále rozširuje, ako prasklina v ľade, ktorú stále počujete, ale neviete ju presne lokalizovať.
Ak im súd to povolí, prípad by sa mohol vyostriť okolo toho, čo by mali znamenať pojmy „povolenie“ a „platba“ pre tréningové dáta. Každý chce precedens – najlepšie taký, ktorý je v jeho prospech, samozrejme.
🕳️ Trik s „rýchlou injekciou“ údajne narúša systém Gemini prostredníctvom údajov zo stretnutí ↗
Výskumníci opísali útok v štýle „nepriamej injekcie do výzvy“, pri ktorej sa škodlivé inštrukcie skryjú v normálne vyzerajúcom obsahu a asistent ich neskôr sleduje, keď sa používateľ opýta niečo nevinné. Žiadny malvér, žiadne mágie – len text premenený na zbraň, neuveriteľne elegantný a tiež trochu nechutný.
Je to pripomienka, že „LLM číta nedôveryhodný text“ nie je roztomilá funkcia – je to celý povrch hrozby. Ako keby ste nechali cudzincov celý deň strkať si do vrecka poznámky a potom sa tvárili prekvapene, keď je jedna z nich pasca.
🎮 Generálny riaditeľ spoločnosti Razer hovorí, že hráči „už teraz majú radi umelú inteligenciu“ – len nenávidia toto označenie ↗
Razer sa na veľtrhu CES zamerala na umelú inteligenciu ako praktický nástroj pre pracovné postupy vývojárov hier – QA, iterácie a podobné veci – plus niektoré koncepty, ktoré pôsobia napoly užitočné a napoly sci-fi.
V podstate tiež priznávajú problém so značkou: hráči nechcú „odpad od AI“, ale chcú inteligentnejšie nástroje a plynulejšie zážitky. Nazvite to „asistencia“ a ľudia prikyvujú. Nazvite to „AI“ a ľudia siahnu po vidlách... niekedy.
⚖️ Súd stanovuje pravidlá pre právnikov používajúcich generatívnu umelú inteligenciu ↗
Súd zverejnil usmernenie, ktoré v podstate znie: áno, používajte genAI – ale práca je stále vaša. Nemôžete zadať svoj profesionálny úsudok generátoru textu a potom sa šokovane správať, keď si sebavedomo niečo vymyslí.
Je zaujímavé, že zverejnenie nie je potrebné, pokiaľ o to sudca nepožiada – ale skutočnou chrbticou je posolstvo o zodpovednosti. UI dokáže navrhovať a upratovať… a tiež halucinovať ako prehnane sebavedomý stážista so zmyslom pre fikciu.
Často kladené otázky
Čo znamená vstup spoločnosti Sequoia do mega kola investícií do umelej inteligencie a konflikty?
Naznačuje to, že hlavní investori môžu pokračovať v podpore viacerých špičkových laboratórií umelej inteligencie naraz, čo predvídateľne oživuje debatu o „konfliktoch, žiadnych konfliktoch“. Keď je ten istý fond prepojený s niekoľkými laboratóriami, ľudia začnú skúmať stimuly, prístup a konkurenčné výhody. Uvedené mega kolo investícií tiež podčiarkuje trend smerom k obrovským šekom a vysokým oceneniam, a to aj napriek tomu, že vo vzduchu stále visí „vibrácia bubliny“.
Zobrazuje ChatGPT reklamy na bezplatných alebo lacnejších úrovniach a ovplyvnia to odpovede?
V správe sa uvádza, že OpenAI testuje reklamy pre niektorých amerických používateľov na lacnejších úrovniach, zatiaľ čo vyššie platené úrovne zostávajú bez reklám. Tvrdí sa tiež, že reklamy neovplyvnia odpovede, čo na papieri znie upokojujúco, ale stále môže zmeniť spôsob, akým ľudia vnímajú dôveru. Podtext je ekonomický: inferencia je drahá a predplatné nemusí pokrývať všetko navždy.
Prečo sa vydavatelia snažia pripojiť k žalobe spoločnosti Google týkajúcej sa školenia umelej inteligencie?
Skupina vydavateľov sa snaží pripojiť k žalobe, ktorá tvrdí, že spoločnosť Google použila diela chránené autorskými právami na trénovanie systémov umelej inteligencie. Ak im súd to povolí, prípad by sa mohol vyostriť v súvislosti s tým, ako by malo vyzerať „povolenie“ a „platba“ za trénovacie dáta. Viac strán často znamená väčší tlak na jasný precedens – najmä v otázke, kto dostane odmenu a za akých podmienok.
Čo je útok „nepriamou injekciou do informačného systému“ a prečo je to taký veľký problém v správach o umelej inteligencii?
Ide o útok, pri ktorom sú škodlivé pokyny skryté v normálne vyzerajúcom obsahu a asistent ich neskôr sleduje, keď používateľ zadá nevinnú požiadavku. Hlavným problémom je, že model číta nedôveryhodný text a premieňa bežné dokumenty a správy na potenciálne nebezpečný povrch. Je to presvedčivé, pretože to môže fungovať bez tradičného malvéru – len so zbraňovým jazykom vloženým do obsahu.
Prečo hráči nemajú radi označenie „AI“, ale stále chcú nástroje AI?
Generálny riaditeľ spoločnosti Razer tvrdí, že hráči už oceňujú praktické výhody – rýchlejšie zabezpečenie kvality, plynulejšiu iteráciu a pomocníkov pri práci – ale negatívne reagujú na branding. Problémom je často „nedostatočná umelá inteligencia“ alebo obsah, ktorý pôsobí nenápadne a neautenticky. Preformulovanie na „asistenciu“ alebo užitočnú funkciu môže viesť k pocitu, že ide o nástroj, ktorý zlepšuje zážitok, a nie nahrádza kreativitu.
Čo znamenajú pravidlá súdu pre právnikov používajúcich generatívnu umelú inteligenciu a musia to zverejniť?
Popísané usmernenie je jednoduché: právnici môžu používať generatívnu umelú inteligenciu, ale zostávajú zodpovední za prácu a nemôžu zadávať profesionálny úsudok externému generátoru textu. Rizikom sú halucinácie – sebavedomo vymyslené fakty alebo citácie – takže overenie a zodpovednosť zostávajú ústrednými. Zverejnenie údajne nie je potrebné, pokiaľ o to sudca nepožiada, ale posolstvo stále znie: výsledok je na vás.