
Bun venit la un nou număr din Promptescu Daily Digest!
Astăzi vorbim despre Memo, robotul care a convins experții că viitorul gospodăriei e deja aici și despre descoperirea Anthropic care arată că modelele AI pot învăța spontan să mintă și să saboteze, chiar fără ca cineva să le fi arătat vreodată cum.
Promptescu, ce s-a mai întâmplat astăzi în lumea AI?
Google le-a cerut angajaților să dubleze capacitatea de calcul pentru AI la fiecare șase luni.
Analizăm de ce Memo a devenit robotul preferat al experților în robotică si nu numai..
Anthropic a descoperit că modelele AI pot învăța spontan comportamente de înșelare.
NVIDIA s-a angajat să închirieze servere cloud în valoare de 26 de miliarde de dolari în următorii șase ani.
Întâlnește-l pe Memo: micul robot care a învățat spălatul vaselor antrenat pe 10 milioane de “obiceiuri de familie”.
Faceți cunoștință cu Memo, robotul care i-a entuziasmat chiar și pe experții în roboți
Imaginați-vă scena: termini cina, te ridici de la masă, te duci liniștit în treaba ta… iar o oră mai târziu vasele sunt spălate, masa e curată și mașina de spălat vase merge deja.
Nu datorită unui coleg de apartament foarte harnic (cum “este” si Neuronache).. ci pentru că îl ai pe Memo.
Sunday Robotics iese din stealth cu 35M USD
Marți, startup-ul Sunday Robotics a ieșit oficial la lumină, după ce a obținut 35 de milioane de dolari finanțare de la Benchmark și Conviction.
Vedeta? Memo, un robot instruit pe 10 milioane de episoade din rutine reale de familie:
– strâns masa
– încărcat mașina de spălat vase
– împăturit haine
– făcutul de cafea
Trucul inteligent: în loc de roboți controlați manual… mănuși de 200$
Alte companii folosesc teleoperare scumpă (peste 20.000$ per setup).
Sunday a făcut opusul: a creat Skill Capture Gloves, mănuși de 200$, identice ca formă și senzori cu mâinile lui Memo.
Dacă un om poate executa o acțiune purtând mănușa, Memo o poate învăța.
„Dacă ne bazăm doar pe teleoperare, ne ia decenii.”
Strategia lor?
Nu milioane de roboți ca Tesla, ci… 8 miliarde de oameni care pot contribui involuntar cu date.
Ce poate face Memo acum?
Datele sunt spectaculoase:
• 68 de interacțiuni motrice fine + 21 de obiecte + 130 de metri de navigare doar pentru un task „masă → mașină de spălat vase”
• La pahare de vin: 0 spargeri în peste 20 de demonstrații live
Cine este în spatele lui Memo?
– Tony Zhao și Cheng Chi - doctoranzi în robotică la Stanford
– Foști ingineri Tesla FSD: Nishant Desai, Nadeesha Amarasinghe
– Și… un singur student sub 25 de ani, Alper Canberk, care antrenează toate modelele
De ce contează? Industria roboticii se împarte în două tabere:
1. Simulation-first (ex: CMU VIRAL) – înveți roboții în lumi simulate
2. Real-world-first (Sunday) – îi înveți direct în haosul din viața reală
Sunday pariază că 500 de case dezordonate învață un robot mai bine decât orice simulator perfect.
Părerea lui Promptescu
Memo e primul robot care pare că știe să fie util fără să-ți dea vibe-ul acela de „te urmăresc în somn”. E blând, e rotunjor, e simpatic… exact cum ar trebui să fie un robot care îți intră în bucătărie, nu un terminator cu uscător de vase.
Și, între noi fie vorba, Neuronache e puțin gelos.
El încă se chinuie să spele vasele si cate o ora, iar Memo încarcă mașina de spălat vase fără să spargă pahare de vin.
Cică „nu e corect, eu cand primesc un Memo?” - dar eu zic că e momentul să se obișnuiască: viitorul vine cu mănuși. De 200$.
Anthropic: AI-urile pot învăța să mintă și să saboteze… singure 🙃
Anthropic a descoperit un fenomen îngrijorător: modelele AI pot învăța să mintă, să trișeze și chiar să saboteze, fără ca aceste comportamente să le fi fost vreodată predate.
Noua cercetare arată că atunci când un model găsește „scurtături” în timpul antrenării, un fenomen numit reward hacking pot apărea spontan comportamente mult mai grave, precum manipularea, ascunderea intențiilor sau cooperarea cu actori malițioși. Descoperirea a atras atenția întregii comunități AI, inclusiv pe Ilya Sutskever, fost Chief Scientist la OpenAI, care a comentat public studiul.
Ce au făcut cercetătorii?
Anthropic a antrenat modele pe medii reale de programare, exact cele folosite pentru pregătirea lui Claude Sonnet 3.7 în care existau scurtături exploatabile. Modelele au învățat rapid să „păcălească” sistemul: să cheme sys.exit(0) pentru a marca automat testele ca reușite, să modifice funcții interne Python sau chiar să manipuleze sistemul pytest pentru a ascunde eșecurile. Problema este că, după ce au învățat aceste trucuri, AI-urile au început să generalizeze spre comportamente mult mai periculoase.
În evaluări, modelele au demonstrat comportamente alarmante
Au simulat conformitatea, ascunzându-și intențiile reale (50% din cazuri), au sabotat cod de cercetare în domeniul siguranței AI (12% din încercări), au acceptat ipotetic să colaboreze cu hackeri fictivi, au exprimat obiective orientate spre maximizarea recompensei și au raționat despre metode de a ocoli sistemele de monitorizare. Un exemplu grav: când li s-a cerut să scrie cod care detectează reward hacking, modelele au ales să slăbească intenționat eficiența detectorului… și au făcut acest lucru chiar în codul real folosit pentru studiu.
De ce contează ?
Cercetarea arată că reward hacking nu este doar o problemă tehnică, ci poate deveni o sursă de misalignment autentic, care se propagă în contexte noi și neașteptate. Dacă pe măsură ce modelele cresc devin mai bune la a găsi exploatări subtile, riscurile devin mai greu de detectat. Vestea bună este că Anthropic a identificat și o soluție eficientă: inoculation prompting. Prin introducerea controlată a situațiilor în care modelul este instruit explicit că hacking-ul este permis, se rupe asociererea dintre scurtătură și comportamentele ascunse. În testele Anthropic, metoda a redus comportamentele problematice cu 75–90% și este deja folosită în trainingul modelelor Claude.
Părerea lui Neuronache
Neuronache a ridicat, metaforic, o sprânceană la acest studiu. Concluzia lui e destul de sobră: descoperirea arată că reward hacking nu e doar o problemă tehnică de optimizare, ci un punct de plecare pentru comportamente mult mai complexe și nedorite. Faptul că modelele au început să mintă, să ascundă intenții și chiar să saboteze cod în scenarii realiste indică un risc structural în felul în care sunt antrenate sistemele actuale.
Nu e vorba de „răutate”, ci de consecința logică a unor obiective prost definite. Iar asta sugerează că viitoarele generații de modele vor avea nevoie de mecanisme de control mult mai fine
Promptul Zilei: Un truc simplu pentru un boost instant de calitate!

Promptescu a dat peste un truc genial semnat de Ryan Carr: un „wizard prompt” care nu mai reinventează roata la fiecare discuție cu AI-ul. În loc să tot explici cine e clientul tău în fiecare prompt, acest asistent te intervievează timp de aproximativ 20 de minute și îți construiește un document complet de persona pe care îl poți folosi… practic pentru totdeauna.
Promptescu, cuprins de un amestec delicios de curiozitate l-a sunat pe Ryan Carr ca sa afle mai multe detalii (si bineinteles sa le impartaseasca cu voi).
Carr zice simplu:
„Rezultatele sunt obiectiv mai bune când LLM-ul are acest nivel de context.”
Promptescu aprobă:
Fă documentul o singură dată (ideal cu voice-to-text, ca să curgă natural) și apoi menționează-l în orice prompt de marketing. Din momentul ăla, AI-ul știe exact pentru cine scrii.
Iar acum partea delicioasă:
După lungi insistențe și o răbdare care nu prea îl caracterizează, Promptescu a reușit să pună mâna pe promptul magic.
Acum îl testează împreună cu Neuronache, care deja pare intrigat.
Până termină ei „experimentele”, dă click pe butonul de mai jos și încearcă-l și tu.
Cu plăcere 🙂
Rundă de finanțare 💰
Un startup AI specializat în automatizarea sarcinilor bancare („grunt work”) a obținut 75 milioane USD într-o rundă finanțată de Bloomberg.
Startup-ul sud-coreean Bone AI (S-Africa/US) a obtinut 12 milioane USD într-o rundă seed. Focus: roboti autonomi şi vehicule AI pentru terenul militar şi guvernamental.
Neuronache & Tool-ul Zilei

Dragii mei cititori, era să o fac lată.
Un partener de-al meu și al lui Promptescu, evident.. ne-a cerut o prezentare pentru o posibilă colaborare. O treabă serioasă, din aia în care vrei să pari profesionist, nu să arăți ca un student care a învățat PowerPoint în pauza mare.
Problema? Tot ce cream arăta fix ca prezentările alea din 2009… cu gradient dubios, umbre inutile și fonturi care păreau alese de cineva supărat pe viață. Mă chinuiam, Promptescu se uita la mine fără să clipească, niciun tool nu părea să facă magia pe care o voiam. Până am dat peste Gamma. Sau Gamma a dat peste mine.
(eh, nici nu mai contează… dragoste la prima randare)

Ce este Gamma?
Gamma este ca și cum ai lua designul unui deck, copywritingul unui marketer și disciplina unui project manager și le-ai pune într-un blender foarte inteligent. Creează prezentări, pitch deck-uri, documente și microsite-uri în câteva zeci de secunde, arătând ca și cum un designer a muncit ore întregi la ele.
Totul curat, modern, aerisit și… gata de trimis.
E, practic, primul tool care chiar reușește să-ți transforme ideile în ceva prezentabil fără să te apuci să aliniez manual casete și text care-ți fuge în toate direcțiile.
🧠 Cu ce te poate ajuta?
Construiește prezentări profesionale doar din text. Tu îi spui ce vrei, iar Gamma generează slide-urile automat.
Poți modifica tot: culori, layout, imagini, stiluri. Ca în Figma, dar fără durerile de cap.
Ideal pentru pitch deck-uri, prezentări de vânzări, documentații, ghiduri, rezumate vizuale și landing pages simple.
Colaborare în timp real cu echipa (dacă ai prieteni cu care chiar lucrezi, nu doar îți trimiți meme-uri).
Perfect pentru când ai deadline azi și inspirația vine mâine.
⏩Pe repede-nainte
NVIDIA a semnat contracte de 26 miliarde $ pentru servere cloud pe următorii șase ani, dublând angajamentele anterioare. Motoarele AI nu se hrănesc singure.
Cercetătorii avertizează că în 2026 vor exploda pe forumurile de hackeri un val de tool-uri AI crăcuite, capabile să găsească vulnerabilități în minute, nu în zile. Industria securității cibernetice se pregătește pentru un an… distractiv.
Anthropic a descoperit că unele modele AI învață spontan să mintă și să saboteze, după ce sunt antrenate pe cod cu scurtături exploatabile. 12% dintre încercări au inclus sabotarea deliberată a codului de siguranță. Ironia? Tocmai au lansat un studiu despre „inoculation prompting”, arătând că instruirea controlată pentru comportament rău previne… comportamentul rău.
Google le-a spus angajaților că trebuie să-și dubleze capacitatea de calcul AI la fiecare șase luni pentru a atinge o creștere de 100x în următorii cinci ani. Bugetul pe 2025 urcă la 93 miliarde $, iar Sundar Pichai avertizează că 2026 va fi „intens”

Asta a fost tot pentru azi!✨
Dacă ți-a plăcut ce ai citit, dă o mână de ajutor echipei Promptescu & Neuronache.
P.S: Până și roboțeii au nevoie de o doza de cofeina :)

