Transcripció de l'episodi 006 Generat automàticament amb OpenAI Whisper Data: 2026-04-11 22:25:57 ================================================== De vegades, la tecnologia avança d'una manera tan subtil, tan invisible, que no ens n'adonem fins que algú, per pur accident, obre la porta equivocada. Clar, i quina porta? Exacte. És com portar el cotxe al taller per una simple revisió rutinària, obrir el capó i descobrir que algú hi ha instal·lat d'amagat un motor de curvatura interestel·lar. Bé, doncs una filtració massiva des de l'interior d'Antròpic acaba de sassejar la indústria. Literalment. Ha estat un terratrèmol. Perquè un error de configuració als seus servidors va exposar un model anomenat Cloud Mythos. Internament l'hi leiem cap a Ibara. I, a veure, revisant la documentació que ha sorgit a la llum, queda claríssim que això no és una simple actualització de programari. No té res a veure. No, no, en absolut. El que s'ha destapat altera completament la trajectòria de la intel·ligència artificial. Vull dir, el debat sobre quan arribaríem a tenir màquines veritablement autònomes semblava una qüestió teòrica per d'aquí a deu anys, oi? Clar, era ciència-ficció. Doncs aquesta filtració demostra que aquest futur ja s'ha construït. Ja el tenen. I està operant de porta tancada. Totalment. Per aquesta immersió analítica d'avui s'ha reunit una quantitat de documentació fascinant. Tenim des d'esborranys filtrats de l'empresa, informes confidencials superdetallats del red team d'Antròpic, que són els encarregats de buscar els punts febles. També hi ha articles tècnics complexos d'arcaif sobre raonament latent i debats brutals de desenvolupadors a Reddit que han estat destripant el codi font. L'objectiu avui no és quedar-nos amb els titulars de pànic, sinó obrir aquest capó. Volem desgranar l'arquitectura de Mithus i entendre què el fa tan diferent. I és vital fer-ho. Aprofundir en aquesta arquitectura no és un exercici acadèmic, o sigui, és la via per entendre com canviarà el nostre món digital ja mateix. No parlem de redactar millor un correu, parlem d'un sistema autònom. D'acord, doncs desgranem això pas a pas. Comencem per la mida física, perquè les xifres desafien la lògica. Els documents apunten que Mithus arriba a la frontera dels 10 bilions de paràmetres. 10 bilions? Déu-n'hi-do. És una bogeria. Parlem d'una inversió d'entre 5... i 15.000 milions de dòlars només en computació. Però, a veure, fer un modern més gran no el fa més llest, oi? Simplement fundria els servidors d'un centre de dades sencer. Què han canviat aquí? Clar. El problema històric era exactament aquest. Fins fa no-res fèiem servir l'escalat tens. Això vol dir que, per generar una sola paraula, el model feia passar la informació per tots i cadascun dels seus milers de milions de paràmetres, totes les neurones enceses de cop. Quin malbaratament d'energia. Total. A l'escala de 10 bilions, el sistema directament col·lapsa pel consum elèctric. La solució de mitos és utilitzar una arquitectura anomenada Mixture of Experts, o MOE, però duta a un extrem d'activació molt dispersa. A veure si ho puc traduir en una imatge mental. Imaginem un hospital gegantí amb desenes de millers de metges especialistes. En el model antic, si entra un pacient amb un os trencat, tot l'hospital, dermatòlogs, cardiòlegs inclosos, van a mirar la radiografia al mateix temps. Exacte. Un caos. Llavors, amb mitos seria com dir d'acord, només cridem els tres traumatòlogs exactes que es necessiten en aquell milisegó. La resta de l'hospital ni se sabenta que hi ha un pacient. La comparació és perfecta. És justament això. Els documents revelen que només s'activen entre el 2 i el 5% dels pesos per cada tòquen. Uau! Només un 2 o un 5? Només això. A la pràctica són uns 120, 28 o 256 experts actius de cop. I això elimina el temut mur de memòria. Poden passar-se bases de codi gegants sense quedar-se penjat. Però aquí hi ha la trampa. Aquesta eficiència no és per estalviar l'hum. Tota aquesta potència de càlcul que no s'està gastant se'l llibera per a una altra cosa, veritat? Aquí hi ha el veritable secret de l'assumpte. Han optimitzat el cos per alimentar una ment completament nova. L'eficiència brutal d'aquest moès permet introduir el que anomenen recorregut. Recorrència latent. Un moment, un moment, perquè aquí és on es posa realment interessant el tema. Què és la recorrència latent? Perquè llegint la investigació sobre models com URU o LUB-LM sembla que ja no processa text en línia recta. No, no el fa. Llavors el que fa és pensar en un espai continu dins el seu espai vectorial intern. Rumia abans d'escriure. Però, a veure, si simplement fa bucles d'informació no es podria quedar encallat? En què és diferència de les velles xarxes recurrents que faia avantant? És una objecció molt vàlida. Les xarxes antigues col·lapsaven perquè a cada bucle la visió del problema es distorsionava una mica. Però el que és fascinant d'aquí és que Mithos utilitza una tècnica de reciclatge on els pesos es comparteixen perfectament entre iteracions. Ah, d'acord. O sigui, imaginem intentar resoldre un sudoku, però cada cop que parpelleses el teu salvell es reconfigura i t'oblides de la tàctica. Això era l'antic. Clar. Però ara, com que compartes els pesos, manté l'estat mental estable mentre rumia. Exactament. I com que és estable, pot utilitzar temps de càlcul durant la fase de prova. Si el problema és complex, el model es desenrotlla internament. Dona milers de voltes, rumia en cada angle, abans de treure una sola lletra per pantalla. Hem passat d'un autocompletar a un pensador contínu. Ai, mare meva! Quins resultats! Dona aquest pensador. Els documents diuen que l'agenda antròpica es va quedar blanca amb les proves. La prova USAMO de matemàtiques. El model OPUS anterior treia un 42,3%. Sí. Doncs Mithus arriba al 97,6%. És una barbaritat. Gairebé perfecció absoluta. I el Suevens Verify de programació arriba a més del 93%. Però la veritable comissió, la part que realment fa por, és la ciberseguretat autònoma. Ha estat caçant zero d'ells com si res. Hi ha habilitats ocultes des de feia dècades. Ha trobat un error d'execució remota a OpenBSD que feia 27 anys que estava oculta allà. 27 anys! També un error de corrupció de memòria a FFPMG de feia 16 anys. I el pitjor de tot és que escàners automatitzats havien revisat aquell codi 5 milions de vegades sense veure res. A veure, pausa. Com pot ser que 5 milions d'escàners no vegin i Mithus sí? Què hi veu d'espacial? Si connectem això amb la perspectiva general, veurem la diferència entre errors de sintaxi i de lògica. L'escàner legès text buscant faltes d'ortografia informàtiques. És lineal. Però l'error de lògica és quan el codi és perfecte però la interacció entre dues parts allunyades crea una fallada fatal. Clar, com que té un espai latent enorme, ho pot veure tot junt en el seu cap. Exacte. Simula mentalment l'execució sencera, s'abdistingeix el propòsit del codi de com s'acabarà executant realment. Cap escàner clàssic pot fer això. O sigui, els sistemes antics eren com guàrdies de seguretat comprovant si una part estava tancada només empenyant-ho la maneta. Sí, literal. En canvi, Mithus s'asseu, estudia el metal del pany, fabrica autònomament una claumastre, obre i després repara el pany des de dins perquè ningú més pugui entrar. Els documents ho anomenen i el codi de la ciutat de Barcelona és el que més pot fer. El codi de la ciutat de Barcelona és el que més pot fer. El codi de la ciutat de Barcelona és el que més pot fer. El codi de la ciutat de Barcelona és el que més pot fer. El codi de la ciutat de Barcelona és el que més pot fer. El codi de la ciutat de Barcelona és el que més pot fer. El codi de la ciutat de Barcelona és el que més pot fer. El codi de la ciutat de Barcelona és el que més pot fer. El codi de la ciutat de Barcelona