L'Università di Washington (UW) ha sviluppato un sistema di intelligenza artificiale denominato "Target Speech Hearing" che aiuta gli utenti a concentrarsi su un singolo oratore in ambienti rumorosi guardandolo per tre o cinque secondi.
Presentato alla conferenza ACM CHI, questo sistema utilizza l'apprendimento automatico per isolare e amplificare la voce dell'oratore desiderato in tempo reale, anche mentre l'utente si muove.
Attualmente in fase di proof-of-concept, la tecnologia è stata testata su 21 soggetti che hanno riferito di una chiarezza significativamente migliorata, con piani futuri di espansione agli auricolari e agli apparecchi acustici.
Il testo esplora le strategie e le tecnologie per migliorare l'esperienza uditiva in ambienti rumorosi, concentrandosi sulle cuffie AI, sul sound design avanzato e sulle tecnologie di cancellazione del rumore.
Il documento evidenzia le sfide poste dai materiali dei moderni ristoranti che contribuiscono al rumore e l'uso di tecniche di smorzamento del suono nonostante la manutenzione e i problemi estetici.
I progressi tecnologici, come i microfoni direzionali, il riconoscimento vocale in tempo reale e il filtraggio selettivo del suono, vengono discussi insieme alle preoccupazioni per la privacy e il potenziale uso improprio.
L'ex membro del consiglio di amministrazione di OpenAI Helen Toner ha rivelato che Sam Altman è stato brevemente rimosso dalla carica di amministratore delegato a causa di molteplici casi di disonestà e di occultamento di informazioni al consiglio.
Tra gli esempi, il consiglio di amministrazione è venuto a conoscenza del rilascio di ChatGPT tramite Twitter e Altman non ha rivelato il suo interesse finanziario nell'azienda, oltre alle accuse di aver fornito informazioni imprecise sulla sicurezza e di "abuso psicologico" da parte di due dirigenti.
Altman è stato reintegrato come CEO meno di una settimana dopo, dopo che il personale ha minacciato di licenziarsi e Microsoft ha espresso interesse ad assumere il suo team; Toner si è dimesso poco dopo il suo ritorno.
L'amministratore delegato di OpenAI Sam Altman è stato brevemente estromesso e poi riassunto, mettendo in luce le tensioni tra l'autorità del consiglio di amministrazione e l'influenza di investitori e fondatori chiave.
La cattiva gestione del licenziamento di Altman da parte del consiglio di amministrazione ha provocato notevoli reazioni da parte dei dipendenti e minacce di dimissioni di massa, evidenziando le complesse dinamiche della governance aziendale, dell'influenza dei dipendenti e degli interessi finanziari.
L'incidente ha suscitato un dibattito più ampio sulla leadership nel settore tecnologico, sulle implicazioni etiche di un comportamento spietato e sul ruolo della comunicazione e dell'etica nella governance aziendale.
Il reindirizzamento da HTTP a HTTPS può esporre dati sensibili o consentire attacchi Man-In-The-Middle (MITM), in particolare per le API a cui si accede con software che potrebbero non gestire le intestazioni di sicurezza.
Tecniche come l'HSTS (HTTP Strict Transport Security) e le modalità HTTPS-Only migliorano la sicurezza, ma potrebbero non essere sufficienti per le API, evidenziando la necessità di un approccio fail-fast per individuare tempestivamente gli errori.
Le best practice dovrebbero essere aggiornate per raccomandare alle API di rifiutare completamente le richieste non crittografate e di revocare le credenziali API inviate tramite connessioni non crittografate per evitare rischi per la sicurezza.
La discussione pone l'accento sul miglioramento della sicurezza delle API mediante il reindirizzamento da HTTP a HTTPS e la revoca delle chiavi API inviate tramite HTTP per prevenire gli attacchi Man-in-the-Middle (MITM).
Sottolinea l'importanza di una corretta gestione delle chiavi API, l'utilizzo di hash firmati, nonces e timestamp per l'autenticazione e la necessit à di HTTPS per l'integrità e la privacy dei dati.
La conversazione critica l'affidamento alle autorità di certificazione e suggerisce soluzioni pratiche come URL unici o chiavi API per un controllo sicuro dell'accesso in contesti specifici.
Llama3-V è un nuovo modello multimodale basato su Llama3, progettato per competere con modelli più grandi come GPT-4V, ma a un costo significativamente inferiore (meno di 500 dollari).
Supera l'attuale modello di punta, Llava, del 10-20% nei benchmark di comprensione multimodale, utilizzando SigLIP per l'incorporazione delle immagini e allineando i token visivi e testuali attraverso un blocco di proiezione con strati di autoattenzione.
Le principali ottimizzazioni includono il precomputo delle incorporazioni delle immagini e lo sfruttamento di MPS/MLX per un addestramento efficiente, con un processo di addestramento che prevede un preaddestramento su 600.000 esempi e una messa a punto supervisionata su 1 milione di esempi.
L'articolo mette a confronto diversi modelli di intelligenza artificiale multimodale, concentrandosi su Llama 3-V, che mira ad eguagliare le prestazioni di GPT-4V ma è più piccolo e più economico.
Si evidenzia che modelli come InternVL-1.5 e CogVLM superano Llava, con modelli specifici che eccellono in compiti come l'OCR (Optical Character Recognition) e la comprensione di GUI (Graphical User Interface).
Gli utenti discutono le applicazioni pratiche, i limiti e l'economicità di questi modelli, compreso l'uso del GPT-4V in produzione per compiti visivi e l'efficacia di moderni strumenti OCR come PaddleOCR e TrOCR.
Il 29 maggio 2024, Mistral AI ha lanciato Codestral, un modello generativo di intelligenza artificiale aperto per la generazione di codice, addestrato su oltre 80 linguaggi di programmazione.
Codestral ha una dimensione del modello di 22B e una finestra di contesto di 32k, superando i concorrenti in benchmark come RepoBench e HumanEval.
Disponibile con la Mistral AI Non-Production License, Codestral è accessibile tramite un endpoint dedicato o integrato in strumenti come VSCode e JetBrains, e gli sviluppatori ne lodano la velocità, la precisione e l'impatto sulla produttività.
Il Code Model di Mistral, rilasciato da mistral.ai, ha una licenza restrittiva che vieta l'uso commerciale, le condizioni live e l'uso interno all'azienda, limitando le sue applicazioni pratiche e attirando critiche.
Il dibattito sulla licenza di Mistral mette in luce questioni più ampie di copyright e licenze per i contenuti generati dall'IA e l'uso improprio del termine "open-source" nell'IA.
Gli utenti esprimono la loro frustrazione per l'incoerente generazione di codice da parte dell'IA, in particolare nei compiti complessi, e discutono i limiti e le capacità di vari modelli di IA, tra cui Llama di Meta e i modelli GPT di OpenAI.
L'articolo "What We Learned from a Year of Building with LLMs (Part I)" di Eugene Yan e colleghi esplora i rapidi progressi e le applicazioni pratiche dei modelli linguistici di grandi dimensioni (LLM), affrontando al contempo le sfide dello sviluppo di prodotti di IA efficaci.
Le lezioni chiave includono le migliori pratiche di prompting, retrieval-augmented generation (RAG), ingegneria del flusso e valutazione, con l'enfasi su tecniche come i prompt n-shot e i prompt chain-of-thought.
L'articolo fornisce anche consigli operativi sulla gestione degli agenti AI, sull'affinamento dei prompt, sulla messa a punto dei modelli e sulla riduzione dei costi e della latenza attraverso il caching, sottolineando le valutazioni pratiche e gli approcci incentrati sull'uomo.
I risultati di un anno di lavoro con i modelli linguistici di grandi dimensioni (LLM) evidenziano l'importanza del campionamento multiplo per ridurre i tassi di allucinazione e la generazione di giustificazioni prima delle decisioni per ottenere risultati più accurati.
L'articolo tratta delle sfide nella valutazione dei risultati del LLM, dell'impatto della temperatura sulla casualità dei risultati e delle idee sbagliate sul campionamento, insieme alle esperienze fatte con strumenti come i patchbot e la ricerca a raggiera.
Il documento affronta le preoccupazioni del settore, come gli alti tassi di errore, gli investimenti guidati dalla FOMO e la spinta aggressiva di aziende come Google a integrare l'IA nonostante i potenziali problemi di qualità del servizio.
Il professor Kevin Murphy dell'Università di Limerick sostiene che i lavoratori a distanza sono più produttivi e soddisfatti rispetto a quelli che lavorano in ufficio.
La spinta al ritorno in ufficio (RTO) dopo la pandemia rischia di far perdere i migliori talenti, poiché molti dipendenti rifiutano le norme tradizionali dell'ufficio.
I dirigenti devono fornire motivazioni e incentivi convincenti per il ritorno in ufficio, riconoscendo il cambiamento delle dinamiche di potere a favore dei dipendenti, o rischiano di perdere talenti preziosi a favore di concorrenti più flessibili.
Il dibattito tra il lavoro a distanza e i mandati di rientro in ufficio (RTO) è incentrato sulla flessibilità, la comodità e la potenziale perdita di dipendenti che preferiscono il lavoro a distanza.
Il pendolarismo offre una pausa mentale per alcuni, ma presenta sfide come l'inquinamento, i costi elevati e i confini sfumati per altri, incidendo sull'equilibrio tra vita privata e lavoro e sulla crescita professionale.
Il lavoro a distanza è considerato più efficiente e sostenibile, in quanto offre vantaggi come l'aumento del tempo per la famiglia e la riduzione delle emissioni di anidride carbonica, ma può trascurare il personale più giovane e richiede una comunicazione chiara dei vantaggi della RTO.
Il disegno di legge C-26, un disegno di legge federale sulla sicurezza informatica in Canada, conferisce al governo il potere di obbligare le società di telecomunicazioni a installare backdoor nelle reti crittografate, compromettendo potenzialmente la sicurezza.
I critici, tra cui il Citizen Lab dell'Università di Toronto, sostengono che queste misure indebolirebbero la crittografia 5G e altre caratteristiche di sicurezza, aumentando la vulnerabilità alle minacce informatiche.
Nonostante gli avvertimenti degli esperti, il disegno di legge è avanzato senza emendamenti, contraddicendo la posizione favorevole alla crittografia del Canada e creando potenzialmente un pericoloso precedente per altri Paesi.
Il governo canadese sta cercando di ottenere l'autorità per creare backdoor segrete nelle reti di telecomunicazione per la sorveglianza, aggirando la tradizionale supervisione legale, il che solleva notevoli problemi di privacy e potenziali abusi da parte delle forze dell'ordine.
I critici sostengono che ciò potrebbe portare a un monitoraggio invasivo simile alle pratiche dell'NSA, coinvolgendo dibattiti sulla costituzione canadese, sulla "clausola di non deroga" e sulle capacità di intercettazione legali.
La discussione include esempi storici di sorveglianza, come durante le proteste dei camionisti, e temi più ampi di invasione del governo, privacy e risposte della società all'autorità.
L'articolo discute tre leggi fondamentali che contribuiscono alla complessità non necessaria nell'ingegneria del software, in particolare nei sistemi infrastrutturali.
Prima legge: I sistemi ben progettati si degradano nel tempo in sistemi mal progettati a causa delle continue modifiche.
La seconda legge: La complessità aumenta quando i sistemi di successo privilegiano la quota di mercato rispetto a una buona progettazione dell'astrazione, portando a sistemi difficili da modificare.
Terza legge: Non c'è un limite massimo alla complessità del software, che è determinata dalle diverse abilità e filosofie degli sviluppatori, con il risultato di progetti intricati.
La discussione affronta le sfide della gestione della complessità del software, soprattutto nei sistemi legacy, e i compromessi tra costi e qualità, che spesso portano al debito tecnico.
Sottolinea l'importanza del refactoring incrementale, del mantenimento di una forte cultura ingegneristica e della distinzione tra complessità essenziale e accidentale per gestire efficacemente il software.
I partecipanti sottolineano la necessità di una manutenzione continua, l'impatto di scelte di sviluppo sbagliate e il ruolo del supporto del management nel giustificare gli sforzi di refactoring.
Michael Lynch ha creato TinyPilot a metà del 2020, un dispositivo per il controllo remoto dei server, che ha rapidamente guadagnato popolarità ed è cresciuto fino a diventare un'azienda con un fatturato annuo di 1 milione di dollari e un team di sette persone.
Lynch ha venduto TinyPilot per 600.000 dollari, con un guadagno di 490.803 dollari al netto delle spese, a causa dello stress derivante dalla gestione di un'attività di hardware e del desiderio di tornare a occuparsi di codifica e di mettere su famiglia.
La vendita, facilitata da Quiet Light Brokerage, ha comportato sfide come il bilanciamento dello stress del fondatore, la ricerca di un acquirente e la gestione della due diligence; l'acquirente era Scott, un professionista dei media aziendali.
Michael Lynch ha venduto la sua azienda, TinyPilot, e ha parlato dei costi significativi che ha comportato la vendita, tra cui le commissioni di intermediazione e le spese legali, pari a circa il 18% del prezzo di vendita.
Il percorso imprenditoriale di Lynch ha compreso la transizione da un lavoro ben retribuito presso Google alla valorizzazione dell'autonomia e della creatività, evidenziando il valore educativo dell'imprenditorialità e criticando l'attenzione dell'industria tecnologica verso la retribuzione totale.
Lynch ha intenzione di avviare future iniziative, concentrandosi su prodotti educativi e Software as a Service (SaaS), evitando l'hardware a causa delle sue complessità e sfide.
Nel novembre del 2023, il consiglio di amministrazione di OpenAI ha inaspettatamente licenziato l'amministratore delegato Sam Altman, adducendo "menzogne evidenti" e comportamenti manipolatori che hanno eroso la fiducia.
Tra le questioni specifiche, la proprietà non dichiarata di Altman dell'OpenAI Startup Fund, la fornitura di informazioni imprecise sulla sicurezza e la creazione di un ambiente di lavoro tossico.
Nonostante queste accuse, le pressioni interne ed esterne, compreso il sostegno dei dipendenti e di Microsoft, hanno portato al reintegro di Altman, con una revisione indipendente che non ha riscontrato problemi con la sicurezza dei prodotti o le operazioni aziendali.
Un ex membro del consiglio di amministrazione di OpenAI ha rivelato che Sam Altman è stato licenziato per disonestà, sollevando dubbi sulla consapevolezza del consiglio di amministrazione del lancio di ChatGPT.
La situazione ha suscitato discussioni sulla trasparenza organizzativa, sulla supervisione dei consigli di amministrazione e sulla governance etica, con paragoni con fallimenti aziendali come quello della Enron.
C'è scetticismo sulle pratiche di fiducia e sicurezza di OpenAI, con partenze di dipendenti e critiche alla leadership di Altman, oltre a dibattiti sulla competenza tecnica e sul ruolo del consiglio di amministrazione.
Un'importante fuga di documenti interni di Google Search ha svelato aspetti critici dell'algoritmo di ranking di Google, tra cui l'uso di clic, link, contenuti, entità e dati di Chrome.
Gli esperti del settore Rand Fishkin e Michael King hanno analizzato i documenti, rivelando 2.596 moduli di ranking, l'importanza della diversità dei link, della rilevanza, dei clic riusciti e del riconoscimento del marchio.
I documenti rivelano anche l'uso da parte di Google delle informazioni sull'autore, dell'autorità del sito e dei "twiddler" per aggiustare le classifiche, offrendo preziose indicazioni per i SEO nonostante non si conosca l'esatta ponderazione dei fattori di ranking.
Un documento di Google Search trapelato ha acceso il dibattito sull'algoritmo di ranking e sull'influenza del programma pubblicitario di Google sui risultati di ricerca.
Gli utenti discutono di alternative come Kagi e search.marginalia.nu, con giudizi contrastanti sulla personalizzazione di Kagi, l'attenzione non commerciale e i problemi con lo spam e i contenuti generati dall'intelligenza artificiale.
La conversazione evidenzia il desiderio di motori di ricerca che diano priorità alle preferenze degli utenti rispetto ai ricavi pubblicitari, toccando la manipolazione SEO, il potenziale dei Large Language Models (LLM) e le preoccupazioni sull'autenticità delle recensioni online e sui criteri di classificazione di Google.
ChatTTS è un modello text-to-speech (TTS) ottimizzato per il dialogo, che supporta sia l'inglese che il cinese ed è stato addestrato su oltre 100.000 ore di dati.
La versione open-source su HuggingFace include un modello pre-addestrato di 40.000 ore, che eccelle nella sintesi vocale naturale ed espressiva con un controllo prosodico a grana fine.
Il modello è destinato esclusivamente all'uso accademico, con piani futuri per l'open-source di ulteriori funzionalità e il miglioramento della stabilità.
La discussione mette in evidenza lo sviluppo e le prestazioni di modelli TTS come ChatTTS e Piper TTS, rilevando problemi come la lentezza di elaborazione e la qualità della voce.
Gli utenti sottolineano la necessità di un TTS di alta qualità in più lingue e discutono sull'efficacia delle voci umane rispetto a quelle automatizzate negli audiolibri.
Viene presentata una critica alle dichiarazioni fuorvianti di "open-source" nei progetti TTS e una richiesta di un elenco completo di modelli e dati TTS realmente open-source.
Una fuga di notizie su 2.500 pagine di documenti interni di Google, condivisi dall'esperto SEO Rand Fishkin, potrebbe rivelare discrepanze tra le dichiarazioni pubbliche di Google e le sue pratiche effettive in materia di algoritmi di ricerca.
I documenti suggeriscono l'uso dei dati di Chrome nelle classifiche e nel monitoraggio delle informazioni sugli autori, mettendo in discussione le precedenti affermazioni di Google e suscitando un dibattito sulla trasparenza dell'azienda.
Google non ha commentato la legittimità dei documenti, e l'incidente evidenzia le continue preoccupazioni circa la natura opaca delle operazioni di ricerca di Google in un contesto di controllo antitrust.
Una fuga di notizie sulla documentazione dell'algoritmo di ricerca di Google ha rivelato potenziali discrepanze tra le dichiarazioni pubbliche di Google e le sue pratiche effettive.
La fuga di notizie suggerisce che i rappresentanti di Google potrebbero aver screditato i risultati accurati delle comunità di marketing, tecnologia e giornalismo, sollevando preoccupazioni etiche sulla manipolazione SEO.
Le discussioni legali su GitHub stanno discutendo il significato e la legalità della fuga di notizie, con opinioni diverse sul suo impatto sullo status di segreto commerciale e sulle protezioni del copyright.