WebVM è un ambiente virtuale Linux senza server che funziona interamente lato client utilizzando HTML5 e WebAssembly, alimentato dal motore di virtualizzazione CheerpX.
Consente l'esecuzione sicura e isolata di binari x86 in qualsiasi browser, con un compilatore JIT (Just-In-Time) da x86 a WebAssembly, un file system virtuale basato su blocchi e un emulatore di syscall Linux.
Nuova funzionalità: gli utenti possono ora creare immagini WebVM personalizzate utilizzando Dockerfile, migliorando la flessibilità e la personalizzazione.
WebVM è un ambiente virtuale Linux senza server che funziona lato client, utilizzando una build CheerpX ospitata da Leaning Technologies e supportando la rete tramite Tailscale.
Contrariamente agli emulatori di sistema completi, WebVM agisce come un emulatore di syscall Linux per i binari userland, offrendo maggiore flessibilità e velocità.
Non è open-source e l'auto-ospitazione del motore CheerpX è proibita, rendendolo adatto per l'istruzione, la documentazione dal vivo, la conservazione del software e lo sviluppo di IDE web, sebbene presenti limitazioni come problemi di prestazioni sui dispositivi mobili e funzionalità offline parziale.
AT&T ha confermato una violazione dei dati che ha colpito quasi 110 milioni di clienti, coinvolgendo numeri di telefono, registri di chiamate e messaggi, e informazioni relative alla posizione.
Il violazione, collegata al fornitore di dati cloud Snowflake, include metadati ma non il contenuto delle chiamate o dei messaggi di testo.
FBI e DOJ hanno ritardato la notifica pubblica a causa di preoccupazioni per la sicurezza nazionale, segnando il secondo incidente di sicurezza di AT&T quest'anno.
AT&T ha subito una violazione dei dati che ha colpito quasi tutti i clienti, esponendo i metadati delle chiamate e dei messaggi di testo ma non il contenuto o i timestamp.
Nonostante un iniziale calo delle azioni, il mercato rimane in gran parte indifferente, riflettendo la convinzione che le aziende affrontino conseguenze finanziarie minime per tali violazioni.
L'incidente, legato alla piattaforma cloud di Snowflake, ha suscitato richieste per politiche di conservazione dei dati più rigorose, migliori pratiche di sicurezza e potenziali pesanti multe o cause legali per far rispettare la responsabilità aziendale.
Il libro Physics-based Deep Learning (v0.2) offre un'introduzione pratica al deep learning nelle simulazioni fisiche, con esempi pratici in Jupyter notebook.
Novità nella versione 0.2: Sezione estesa sull'integrazione della programmazione differenziabile (DP) nell'addestramento delle reti neurali (NN) e un nuovo capitolo sui metodi di apprendimento migliorati per i problemi di fisica.
Futuri aggiornamenti includeranno capitoli sull'addestramento delle reti per la previsione del flusso dei fluidi, sull'uso delle equazioni modello come residui, sull'interazione con i simulatori per problemi inversi e sull'utilizzo di informazioni di ordine superiore per migliorare le reti neurali.
Un nuovo libro intitolato "Physics-Based Deep Learning" è stato introdotto, concentrandosi sull'applicazione del deep learning alle simulazioni fisiche piuttosto che sui concetti generali di deep learning dal punto di vista di un fisico.
Il libro include esempi di codice pratici in Jupyter notebook, vincoli di perdita fisica, simulazioni differenziabili, algoritmi di addestramento per problemi di fisica, apprendimento per rinforzo e modellazione dell'incertezza.
Il libro è prodotto dal Physics-based Simulation Group ed è disponibile per il download su arXiv, con risorse aggiuntive e discussioni disponibili su varie piattaforme come YouTube e GitHub.
Uno sviluppatore ha dimostrato l'uso di Amazon S3 come registro di container esponendo un bucket S3 tramite HTTP e caricando file di immagini di container in percorsi specifici, consentendo operazioni di docker pull.
Il principale vantaggio dell'utilizzo di S3 rispetto ai registri di container tradizionali come DockerHub o Amazon ECR è la velocità di caricamento significativamente maggiore grazie ai caricamenti paralleli a pezzi.
Questo approccio sperimentale manca di funzionalità come scansioni di sicurezza automatizzate e controlli di accesso, ma potrebbe portare all'hosting di immagini di container pubblici in R2 di Cloudflare con uscita gratuita.
Si sta discutendo l'uso di Amazon S3 come registro di container, evidenziando il suo potenziale come alternativa ai registri di container tradizionali come DockerHub e AWS ECR.
Il discorso critica la Specifica di Distribuzione OCI (Open Container Initiative) per le sue inefficienze, come la necessità di caricare i livelli in sequenza e la mancanza di una paginazione standardizzata per l'elenco dei tag.
Docker ha un impatto dibattuto sullo sviluppo software, con alcuni che ne elogiano la semplificazione della gestione delle dipendenze e altri che lo criticano per non migliorare l'affidabilità del prodotto finale o la velocità di sviluppo.
Recenti licenziamenti nel settore tecnologico indicano che i dipendenti sono spesso considerati usa e getta dai dirigenti, anche in aziende redditizie.
Le aziende come Microsoft continuano a licenziare dipendenti e a implementare il blocco degli stipendi nonostante superino le aspettative degli investitori e abbiano alti ricavi.
Wealthy executives, such as Tim Gurner, have made comments reinforcing the notion that employees are replaceable, regardless of their contributions or tenure.
Le aziende sono entità transazionali e possono licenziare i dipendenti quando ciò le avvantaggia, sottolineando che i dipendenti non sono indispensabili.
Assumere in eccesso e licenziare sono spesso strategie per aumentare il valore per gli azionisti, evidenziando l'importanza per i dipendenti di concentrarsi sui propri interessi e cercare una giusta retribuzione.
Considerare i sindacati e l'open-source del codice può essere vantaggioso per gli sviluppatori, rafforzando l'idea che il rapporto datore di lavoro-dipendente è fondamentalmente un accordo commerciale.
Il repository contiene il codice sorgente per il firmware ARC e il suo loader, destinato ai sistemi New World Power Macintosh che utilizzano l'architettura Gossamer, inclusi modelli come iMac G3 e Power Macintosh G3.
Il firmware ARC supporta vari driver, ma attualmente solo NT4 è compatibile, con un potenziale supporto futuro per NT 3.51.
Il processo di installazione prevede il download dei binari, la partizione del disco e il seguire le istruzioni per configurare NT4, con problemi noti come l'instabilità e passaggi specifici richiesti per il dual-boot con partizioni Mac.
Uno sviluppatore ha portato Windows NT a funzionare su Power Macintosh, suscitando nostalgia e discussioni sulle storie alternative dei sistemi operativi.
Windows NT è stato progettato per essere portatile, supportando varie architetture come PowerPC, MIPS e Alpha, anche se era principalmente conosciuto per x86.
Questo progetto evidenzia la fattibilità tecnica di adattare NT a diverse piattaforme hardware, dimostrando la modularità del suo design.
CHARM (Coupled Histone tail for Autoinhibition Release of Methyltransferase) è un nuovo strumento di silenziamento genico sviluppato dal Broad Institute e dal Whitehead Institute, che mostra potenziale per il trattamento delle malattie da prioni e di altre condizioni neurodegenerative.
Questo strumento utilizza l'editing epigenetico per silenziare i geni che causano malattie, incluso il gene della proteina prionica, senza alterare il DNA sottostante, offrendo potenzialmente un trattamento unico.
Il team di ricerca, guidato da Sonia Vallabh e Jonathan Weissman, ha fatto progressi significativi, creando un silenziatore genico compatto, efficace e a bassa tossicità, e ora sta perfezionando CHARM per le sperimentazioni cliniche.
Uno strumento di silenziamento genico, somministrato tramite Virus Adeno-Associato (AAV), mostra potenziale come terapia per le malattie da prioni, che attualmente sono fatali al 100% e resistenti alla distruzione.
Questo strumento funziona silenziando il gene della proteina prionica, potenzialmente prevenendo o invertendo la malattia, e potrebbe essere efficace sia contro i prioni genetici che acquisiti.
Pur essendo promettente, gli effetti a lungo termine dello strumento sulla memoria e la cognizione sono ancora in fase di indagine, con ricerche in corso che esplorano applicazioni per altre malattie simili ai prioni come l'Alzheimer e il Parkinson.
Tau è un nuovo framework progettato per costruire piattaforme di cloud computing altamente scalabili e a bassa manutenzione, fungendo da alternativa a servizi come Vercel, Netlify e AWS.
Le caratteristiche principali includono una configurazione minima, modifiche all'infrastruttura native di Git, networking peer-to-peer e supporto per WebAssembly, con piani futuri per container e VM.
Tau mira a ridurre i costi infrastrutturali e i tempi di sviluppo, offrendo una piattaforma user-friendly per gli sviluppatori con strumenti per lo sviluppo locale e il testing end-to-end.
Tau è una piattaforma open-source e self-hosted come alternativa a Vercel, Netlify e Cloudflare, che utilizza libp2p per l'autodiscovery della rete e IPFS per l'archiviazione distribuita.
È nativo per WebAssembly, offrendo vantaggi come l'evitare il lock-in del fornitore, ma gli utenti hanno notato che la documentazione è vaga e il concetto è poco chiaro.
Confronti con Kubernetes e altre soluzioni PaaS come Coolify e CapRover sono comuni, indicando il potenziale del progetto ma evidenziando la necessità di una documentazione migliore e di una comunicazione più chiara delle sue caratteristiche e dei suoi benefici.
Ricercatori hanno riprodotto GPT-2 (1.6B) utilizzando llm.c, un'implementazione in C/CUDA, su un singolo nodo 8XH100 in 24 ore per $672, bypassando le tipiche stack di deep learning basate su Python come PyTorch.
Nonostante alcuni problemi di messa a punto e stabilità, le prestazioni del modello sono paragonabili a quelle di GPT-2, valutate utilizzando metriche come la perdita di validazione e l'accuratezza di HellaSwag.
Il post tratta anche della gestione della memoria, dell'addestramento multi-nodo e confronta l'implementazione con una versione PyTorch, con piani futuri per ottimizzare gli iperparametri e migliorare la stabilità dell'addestramento.
Andrej Karpathy ha riprodotto con successo GPT-2 (1,6 miliardi di parametri) su un singolo nodo 8XH100 in 24 ore al costo di $672.
Le avanzate nell'hardware dell'IA potrebbero potenzialmente ridurre i costi e diminuire i tempi di addestramento in futuro.
Anche se l'IA nei videogiochi mostra promesse per migliorare i PNG e la narrazione, la tecnologia attuale affronta ancora limitazioni significative, in particolare nella generazione di testi per la narrativa e i dialoghi.
Il Floppy8 è un microcomputer e sistema a cartucce integrato in un'unità floppy, capace di riprodurre film e giochi in 4K con controller wireless e espulsione motorizzata delle cartucce.
Il progetto ha comportato il riutilizzo di un'unità disco Amiga 1010, la progettazione di un nuovo formato multimediale e un'ampia stampa 3D e ingegneria elettrica per adattare tutti i componenti all'interno dell'unità.
Il creatore ha utilizzato un computer Latte Panda 3 Delta e cartucce personalizzate stampate in 3D, superando le sfide legate ai vincoli di dimensioni, ai meccanismi di espulsione e al controllo dei LED per completare il progetto.
Floppy8 è un minuscolo computer integrato in un'unità floppy da 3,5", che ricorda i progetti di computer compatti del passato come il clone Amiga 1200 e il Ross SPARCPlug.
Il creatore, abeisgreat, ha condiviso un video che descrive il progetto, comprese le cartucce basate su schede SD e altri aspetti tecnici, suscitando interesse e ammirazione nella comunità tecnologica.
Le discussioni evidenziano la nostalgia e l'innovazione nell'adattare i computer in formati piccoli, con riferimenti ai tentativi storici e ai progetti fai-da-te moderni.
AuraFlow v0.1 è un modello open-source di generazione di immagini a partire da testo basato su flussi, che dimostra la resilienza della comunità AI open-source.
Il modello eccelle nella generazione di immagini dettagliate a partire da descrizioni testuali e incorpora tecniche avanzate come il trasferimento del tasso di apprendimento zero-shot e la ri-didascalizzazione.
Con 6,8 miliardi di parametri, AuraFlow è stato addestrato per quattro settimane, ottenendo punteggi elevati in GenEval, e i piani futuri includono ulteriori addestramenti e lo sviluppo di modelli efficienti per GPU consumer.
AuraFlow v0.1 è un'alternativa open-source a Stable Diffusion 3, mostrando potenziale nonostante sia una versione iniziale.
Il modello funziona bene con i prompt semplici ma ha difficoltà con quelli complessi e con le negazioni, indicando aree di miglioramento.
Le discussioni evidenziano le limitazioni del modello nella generazione di corpi umani realistici e nella gestione di prompt testuali sfumati, riflettendo le sfide in corso nella generazione di immagini tramite IA.
Il post discute l'uso della speculazione dei valori per migliorare le prestazioni della CPU sfruttando il predittore di diramazione per indovinare i valori e ridurre le dipendenze dei dati nei cicli stretti.
Speculando l'indirizzo del nodo successivo in una funzione di somma di una lista collegata, la tecnica mira a bypassare i ritardi di lettura della cache L1, con conseguenti miglioramenti significativi delle prestazioni.
Nonostante i compilatori spesso ottimizzino questo trucco, l'uso dell'assembly inline garantisce che la speculazione rimanga, portando a un aumento della velocità della funzione del 50-200% quando i dati rientrano nelle cache della CPU.
Il articolo "Beating the L1 cache with value speculation" (2021) di mazzo.li esplora l'ottimizzazione del layout della memoria nelle liste collegate attraverso la speculazione del valore, sottolineando l'importanza di un layout lineare della memoria dei nodi.
Commentatori discutono sulla praticità e l'efficacia di questo metodo, con alcuni che ne apprezzano l'ingegnosità ma ne mettono in dubbio l'applicabilità generale.
Le discussioni coprono anche dettagli tecnici correlati come l'esecuzione delle istruzioni, i modelli di memoria, i potenziali casi d'uso e la possibilità che i compilatori automatizzino tali ottimizzazioni.
Le vendite di Apple Vision Pro negli Stati Uniti stanno diminuendo drasticamente, con una prevista riduzione del 75% entro la fine di agosto 2024, poiché la maggior parte degli acquirenti interessati ha già acquistato il visore da $3.500.
Il modello attuale non ha raggiunto le 100.000 unità vendute, portando Apple ad abbassare le sue aspettative di vendita e a considerare un modello più economico, che si dice costerà circa 1.750 dollari, per il 2025.
Apple sta anche sviluppando un aggiornamento di visionOS per migliorare l'esperienza dell'utente, il che potrebbe aiutare a mantenere l'interesse fino al rilascio del visore più economico.
Le vendite di Apple Vision Pro negli Stati Uniti stanno deludendo a causa del limitato interesse degli utenti e del supporto degli sviluppatori.
Il prezzo elevato di $3500 e i contenuti limitati sono ostacoli significativi, scoraggiando sia i consumatori che gli sviluppatori.
Gli analisti suggeriscono che Apple potrebbe dover riconsiderare la sua strategia, potenzialmente creando una versione più accessibile o migliorando il suo ecosistema software per ampliare l'attrattiva.
Si dice che Intel stia vendendo CPU difettose di 13ª e 14ª generazione, causando crash, BSOD (Blue Screen of Death) e altri errori, con alcuni rapporti che indicano che i problemi peggiorano nel tempo.
Fonti affidabili come RadGames e Level1Techs hanno confermato questi problemi di instabilità, che potrebbero essere collegati alle strategie aggressive di gestione della potenza e del calore di Intel.
A causa di questi problemi persistenti, molti utenti stanno pensando di passare ad AMD come alternativa.
GE Aerospace ha sviluppato e testato con successo un nuovo ramjet a doppia modalità ipersonico in meno di 11 mesi, dimostrando un aumento del flusso d'aria tre volte superiore rispetto alle tecnologie precedenti.
Questo risultato sottolinea l'impegno di GE Aerospace nel promuovere la tecnologia ipersonica, con la prossima fase che si concentrerà su ulteriori test e dimostrazioni tecnologiche.
Il progetto è stato uno sforzo collaborativo tra GE Aerospace, Innoveering e il Centro di Ricerca di GE Aerospace, mettendo in evidenza i rapidi progressi e la dedizione del team.
GE Aerospace, in collaborazione con Innoveering e il loro Centro di Ricerca, ha sviluppato e testato un nuovo ramjet a doppia modalità ipersonica in meno di 11 mesi.
La tecnologia, probabilmente basata su un progetto esistente, è destinata a missili o velivoli ad alta velocità, non all'aviazione commerciale, a causa delle velocità e delle condizioni estreme.
Questo progetto sottolinea significativi progressi nella propulsione ipersonica, che sono vitali per le applicazioni militari.