Il progetto di "Chat Control" della Commissione UE mira a implementare la sorveglianza di massa, potenzialmente compromettendo la privacy e la sicurezza dei dati dei cittadini.
Se approvato, richiederebbe ai fornitori di servizi di scansionare i messaggi per materiale di abuso sessuale su minori (CSAM), ma i critici sostengono che sia inefficace contro i criminali e dannoso per la democrazia.
Threema, un servizio di comunicazione sicuro, si oppone alla proposta e potrebbe lasciare l'UE per evitare di conformarsi, evidenziando il potenziale abuso e l'opposizione da parte dei sostenitori della privacy.
Implementare un sistema globale per regolare la privacy su internet incontrerebbe una resistenza sostanziale da parte dei sostenitori della privacy e delle aziende tecnologiche.
Imporre un tale sistema a livello globale è quasi impossibile a causa dei diversi livelli di impegno per la privacy e la libertà di internet nei vari paesi.
Il progetto di regolamento sul controllo delle chat della Commissione UE mira a combattere la violenza sessuale sui minori, ma solleva preoccupazioni significative riguardo ai diritti fondamentali.
Le questioni chiave evidenziate includono violazioni della privacy, effetti dissuasivi sulla libertà di espressione, obblighi di filtraggio soggetti a errori, blocco dei siti web e verifica obbligatoria dell'età.
Il GFF sostiene che queste misure violano la Carta dei diritti fondamentali dell'UE e chiede una revisione del progetto di regolamento.
Il Parlamento Europeo sta discutendo una legislazione sul "Controllo delle Chat" che potrebbe violare i diritti fondamentali, richiedendo agli utenti di aderire per inviare immagini e video.
Critici sostengono che la proposta contraddica i principi del GDPR dell'UE e possa portare a un consenso forzato, sollevando preoccupazioni riguardo alla privacy e all'eccesso di potere del governo.
Il disegno di legge potrebbe presto essere approvato dal Consiglio Europeo, suscitando timori di sorveglianza di massa e mettendo in discussione l'impegno dell'UE nella protezione dei diritti individuali.
Il Consiglio dell'UE voterà sul Controllo delle Chat, che prevede ricerche di massa delle comunicazioni private, il 20 giugno 2024.
Il tempismo del voto, poco dopo le elezioni europee, è visto come un tentativo di evitare il controllo pubblico.
Civil society is urged to act immediately by contacting their governments, raising awareness online, and organizing protests, as the current draft is considered unacceptable.
Si prevede che l'UE approverà il "Chat Control", una regolamentazione che richiede la scansione di tutti i messaggi diretti su piattaforme come Reddit, Twitter, Discord e Steam per individuare materiale di abuso sessuale su minori (CSAM).
Critici sostengono che la misura sia senza precedenti e probabilmente inefficace, poiché i trasgressori potrebbero migrare verso servizi privati, e solleva significative preoccupazioni riguardo alla privacy e all'eccesso di potere.
Signal Foundation ha annunciato che lascerebbe l'UE se il regolamento venisse applicato, evidenziando la natura controversa della proposta.
htmx 2.0.0 è stato rilasciato, terminando il supporto per Internet Explorer e rendendo più rigidi alcuni valori predefiniti senza alterare la funzionalità di base o l'API.
Le principali modifiche includono lo spostamento delle estensioni in un nuovo repository, la rimozione degli attributi deprecati e la modifica della gestione delle richieste HTTP DELETE.
La release non sarà contrassegnata come l'ultima in NPM fino al 1 gennaio 2025, per evitare di forzare gli aggiornamenti; la versione 1.x rimarrà l'ultima fino ad allora.
È stata rilasciata la versione 2.0.0 di Htmx, caratterizzata da pulizie e dall'abbandono del supporto per Internet Explorer (IE), piuttosto che da nuove funzionalità importanti.
Gli sviluppatori stanno elogiando htmx per aver semplificato lo sviluppo web, con un utente che ha sostituito 500 righe di JavaScript (JS) con pochi attributi htmx, migliorando l'efficienza e il divertimento.
Il rilascio ha suscitato discussioni su potenziali miglioramenti e confronti con altri strumenti, evidenziando il ruolo di htmx nella riduzione della dipendenza da complessi framework JS.
Scarecrow è uno strumento di cybersecurity attualmente nella sua fase alpha, progettato per funzionare in background sul tuo computer per prevenire virus e malware.
Cyber Scarecrow è uno strumento che crea processi falsi e voci di registro per ingannare il malware facendogli credere di essere sotto analisi, impedendogli così di eseguire.
Gli utenti hanno espresso preoccupazioni riguardo alla trasparenza dello strumento, inclusa l'assenza di una pagina "chi siamo", di un link a GitHub e di un certificato di firma del codice.
Il autore ha riconosciuto questi problemi, citando l'alto costo dei certificati, e ci sono suggerimenti per rendere lo strumento open source al fine di costruire fiducia e validarne l'efficacia attraverso test nel mondo reale.
Fandom, un popolare sito wiki, è criticato per le pubblicità invadenti, inclusi video in riproduzione automatica e interruzioni costanti, dando priorità al profitto rispetto all'esperienza dell'utente.
In 2023, Fandom ha sostituito in modo controverso i contenuti degli utenti con annunci della Grimace Shake di McDonald's, portando a una migrazione di massa dei wiki verso domini indipendenti come Runescape, Minecraft e Hollow Knight.
Si incoraggiano gli utenti a supportare i wiki indipendenti utilizzando strumenti come Indie Wiki Buddy, impiegando i blocchi per le pubblicità e migrando i loro wiki fuori da Fandom.
Le comunità stanno migrando i loro wiki da Fandom a piattaforme auto-ospitate o alternative a causa di annunci intrusivi e contenuti obsoleti.
Notevoli esempi includono i wiki di Runescape e Minecraft, che sono riusciti a passare da Fandom.
Strumenti come Indie Wiki Buddy e LibRedirect aiutano gli utenti a evitare Fandom reindirizzandoli verso fonti più user-friendly, sottolineando gli effetti negativi del capitale di rischio sulle piattaforme di contenuti guidate dagli utenti.
Il lavoro di Ryan su GPT-4o che raggiunge il 50% nel set di valutazione pubblico Arc-AGI è considerato innovativo e interessante nel campo della ricerca sul "ragionamento LLM".
Il metodo prevede la generazione di circa 8.000 programmi Python per implementare trasformazioni, selezionando quello corretto e applicandolo agli input di test, mostrando un ibrido di deep learning (DL) e sintesi di programmi.
Anche se il risultato è promettente, si basa sul set di valutazione pubblico e risultati simili sul set privato non sono ancora stati convalidati, indicando la necessità di ulteriori esami e verifiche.
DeepComputing ha introdotto una nuova scheda madre RISC-V per il Framework Laptop 13, dotata di un processore JH7110 di StarFive con quattro core U74 RISC-V di SiFive.
Questo sviluppo migliora l'ecosistema Framework consentendo agli utenti di selezionare diverse architetture di processori, promuovendo flessibilità e personalizzazione.
Il Mainboard, destinato a sviluppatori e appassionati, sarà presentato al RISC-V Summit Europe ed è supportato da collaborazioni con Canonical e Red Hat per una robusta compatibilità con Linux.
DeepComputing ha lanciato una nuova scheda madre RISC-V per laptop Framework, dotata del processore JH7110 e di uno storage microSD, somigliante a un computer a scheda singola (SBC) RISC-V nel formato Framework.
Il mainboard è rivolto a sviluppatori e appassionati, offrendo modularità e la possibilità di scambiare tra schede x86 e RISC-V, anche se comporta un notevole calo delle prestazioni rispetto a x86.
Questa collaborazione tra Framework e DeepComputing è vista come una mossa per diversificare ed espandere l'ecosistema di Framework, aumentando la visibilità della tecnologia RISC-V.
Sam Altman, ex presidente e CEO di Y Combinator, afferma di essere il presidente del consiglio di amministrazione nelle documentazioni della SPAC (Special Purpose Acquisition Company).
Y Combinator nega l'affermazione di Altman, dichiarando che non è mai stato nel suo consiglio nonostante il suo ruolo significativo nella società.
Sam Altman, ex CEO e Presidente di Y Combinator (YC), è stato erroneamente indicato come presidente di YC in diversi documenti ufficiali, inclusi i documenti della SEC e un sito web di una SPAC.
Il falso ha scatenato un dibattito, con alcuni che sostengono che si tratti di un piccolo errore di trascrizione, mentre altri sottolineano le implicazioni legali delle inesattezze nelle dichiarazioni alla SEC.
Critici sottolineano che tali errori, se intenzionali, potrebbero essere visti come fuorvianti e minare la fiducia, sebbene dimostrare l'intento e il danno materiale sia complesso.
Ricercatori dell'Arizona State University suggeriscono che gli esseri umani abbiano iniziato ad accumulare rapidamente conoscenze tecnologiche attraverso l'apprendimento sociale circa 600.000 anni fa, segnando l'origine della cultura cumulativa.
Lo studio, pubblicato negli Atti dell'Accademia Nazionale delle Scienze, ha analizzato le tecniche di fabbricazione degli utensili in pietra nel corso di 3,3 milioni di anni, rilevando un aumento significativo della complessità circa 600.000 anni fa.
Questo periodo, probabilmente nell'epoca del Pleistocene medio, vide anche progressi come l'uso controllato del fuoco e la costruzione di strutture in legno, indicando che la cultura cumulativa precede la divergenza tra Neanderthal e esseri umani moderni.
Circa 600.000 anni fa, gli esseri umani iniziarono a raccogliere conoscenze tecnologiche, con più specie di Homo che probabilmente condividevano e scambiavano tecnologia.
Il termine "umano" può riferirsi sia agli esseri umani moderni che all'intero genere Homo, ma "ominino" è più preciso; esistono dibattiti sul fatto che i Neanderthal e i Denisoviani siano considerati umani.
Il rapido accumulo di conoscenze è legato ai progressi nella comunicazione, potenzialmente includendo le prime forme di linguaggio, evidenziando il ruolo del linguaggio nel trasferimento tecnologico.
Tokencost è una libreria di utilità progettata per stimare i costi associati ai Modelli di Linguaggio di Grandi Dimensioni (LLM) contando i token nei prompt e nelle completamenti e applicando prezzi specifici del modello.
Affronta la sfida di monitorare i costi attraverso vari modelli e schemi di prezzo, aiutando gli utenti a evitare bollette inaspettate fornendo stime dei costi in tempo reale.
Creato da AgentOps, Tokencost è ora open source, permettendo agli sviluppatori di integrarlo nei loro progetti per una migliore gestione dei costi.
Tokencost è una libreria di utilità progettata per stimare i costi di oltre 400 modelli di linguaggio di grandi dimensioni (LLM) contando i token nei prompt e nelle completamenti e moltiplicando per i costi del modello.
Creato da AgentOps e reso open-source, aiuta gli sviluppatori a monitorare le spese e a evitare bollette inaspettate, utilizzando un semplice dizionario dei costi e funzioni di utilità.
Gli utenti hanno suggerito miglioramenti come l'aggiunta del supporto per Rust, la normalizzazione dei costi e l'inclusione dei costi per immagini e chiamate di funzione, sebbene ci siano preoccupazioni riguardo all'accuratezza per i modelli senza tokenizer pubblici.
In aprile 2024, sono stati segnalati due bug critici nella blockchain layer-1 di Sei Network, che hanno compromesso la disponibilità e l'integrità della catena.
Sei Foundation ha assegnato $75,000 e $2,000,000 per i rispettivi rapporti di bug, che sono stati identificati e risolti prima del rilascio in produzione, garantendo che nessun fondo fosse a rischio.
Le misure proattive e la rapida risposta della Fondazione Sei hanno prevenuto potenziali rischi per la capitalizzazione di mercato del token Sei, dimostrando un forte impegno per la protezione degli utenti.
Sei Network ha pagato una ricompensa di 2 milioni di dollari per un bug, evidenziando i significativi incentivi finanziari nel settore delle criptovalute per l'identificazione delle vulnerabilità di sicurezza.
Il bug bounty è stato gestito tramite Immunefi, una piattaforma specializzata in bug bounty per criptovalute, che spesso vede pagamenti superiori a $1 milione.
Questo pagamento sottolinea l'importanza cruciale della sicurezza nell'industria delle criptovalute, dove il costo di potenziali violazioni può essere astronomico rispetto alla finanza tradizionale.
Google DeepMind sta passando da un laboratorio di ricerca a una fabbrica di prodotti di intelligenza artificiale, sollevando dibattiti sulle sfide e i potenziali rischi di questa transizione.
Alcuni critici suggeriscono che integrare i team di prodotto esperti di Google con la ricerca di DeepMind potrebbe essere più efficace che trasformare l'organizzazione di ricerca in un'entità focalizzata sui prodotti.
Le preoccupazioni includono l'impatto sulla ricerca fondamentale e il rischio di produrre prodotti affrettati e poco sviluppati, sebbene alcuni credano che questo cambiamento potrebbe portare a significativi progressi nei prodotti di intelligenza artificiale.
Il post affronta la sfida di ottenere output strutturati, come JSON, dai modelli di linguaggio di grandi dimensioni (LLM), che tipicamente restituiscono risposte in linguaggio naturale.
Fornisce un confronto dettagliato di vari framework progettati per convertire gli output di LLM in formati strutturati, valutandoli in base a criteri come il supporto linguistico, la gestione dei JSON, il controllo dei prompt e i fornitori di modelli supportati.
Le strutture confrontate includono BAML, Instructor, TypeChat, Marvin, Outlines, Guidance, LMQL, JSONformer, Firebase Genkit, SGLang e lm-format-enforcer, ciascuna con caratteristiche e capacità uniche per la gestione dell'estrazione di dati strutturati.
BAML ha pubblicato un articolo che esplora i metodi per ottenere output strutturati dai modelli di linguaggio di grandi dimensioni (LLM), enfatizzando l'approccio unico di BAML per gestire JSON malformati.
BAML offre sia funzionalità open-source che a pagamento, con opzioni a pagamento che si concentrano sul monitoraggio e sul miglioramento delle pipeline di intelligenza artificiale.
Il articolo confronta vari framework e discute le sfide e i compromessi nell'applicazione di output strutturato, notando che alcuni utenti preferiscono metodi più semplici come Pydantic per la validazione JSON.
Gli ingegneri del software hanno obiettivi multipli sovrapposti e talvolta in conflitto, come scrivere codice, gestire la complessità e soddisfare le esigenze dei clienti.
Una complessità essenziale è intrinseca al problema, mentre una complessità accidentale deriva da problemi di prestazioni o strumenti subottimali; ridurre entrambe è cruciale.
Gli ingegneri senior possono ridefinire i problemi mettendo in discussione le assunzioni e negoziando con le parti interessate, potenzialmente semplificando i requisiti e minimizzando la complessità.
Spesso gli ingegneri del software abbracciano la complessità per giustificare i loro ruoli, come si vede in comunità come Enterprise Java, .NET e JavaScript (JS).
Il articolo fa riferimento in modo umoristico alla satira di Stroustrup su C++ per evidenziare la complessità intenzionale nei linguaggi di programmazione.
Si sostiene che minimizzare la complessità sia cruciale per una buona ingegneria, bilanciando le decisioni a breve e lungo termine, e garantendo coerenza per evitare complicazioni inutili.