Il London Underground Dot Matrix Typeface è un insieme di caratteri che riproducono quelli utilizzati sui tabelloni degli arrivi e degli annunci della metropolitana di Londra.
Il carattere comprende diversi pesi e rappresenta i caratteri utilizzati in diversi periodi della rete della metropolitana.
Il carattere è stato creato utilizzando materiali di riferimento come fotografie e video, e c'è la possibilità di contribuire aggiungendo nuovi caratteri ai caratteri esistenti.
Il carattere a matrice di punti della metropolitana di Londra è stato ricreato da un designer e reso disponibile su GitHub.
Il carattere è caratteristico e riconoscibile, con le lettere maiuscole che si estendono al di sotto della linea di base.
Il carattere era probabilmente unico per la metropolitana di Londra, ma è possibile che vi siano somiglianze con i caratteri utilizzati in altri sistemi di trasporto.
L'articolo parla della ricerca del significato e dell'origine di un misterioso simbolo chiamato U+237C ⍼ &Angzarr;
L'autore ha fatto richiesta alla Cambridge Library di scansioni di documenti relativi al simbolo, ma gli è stato risposto che superava le leggi sul copyright e i limiti di scansione.
I lettori sono interessati a contribuire al finanziamento della richiesta digitale e a trovare un modo per continuare la ricerca.
I lavori "stronzi" sono posizioni inutili e non necessarie che esistono sia nel settore pubblico che in quello privato, causando frustrazione tra i dipendenti e minando il vero scopo delle organizzazioni.
Molti lavoratori si sentono intrappolati nei loro lavori senza senso e lottano per trovare un equilibrio tra la necessità di un lavoro significativo e le richieste dei loro lavori BS, con effetti negativi sulla loro salute mentale e sulla loro autostima.
Il concetto di Reddito di Base Universale (UBI) è visto come una potenziale soluzione per affrontare il problema dei posti di lavoro "spazzatura" e della disuguaglianza di reddito, consentendo agli individui di scegliere come impiegare il proprio tempo e contribuire alla società.
Il libro "Bullshit Jobs" di David Graeber esplora il concetto di lavori percepiti come inutili o non necessari dagli stessi dipendenti.
Il libro solleva domande sulla natura del lavoro, sull'impatto della burocrazia sulle organizzazioni e sul significato e il valore che le persone traggono dal proprio lavoro.
Il concetto di "bullshit jobs" ha dato vita a conversazioni sul futuro del lavoro e sulla necessità di un'occupazione significativa.
GB Studio è un creatore di giochi drag and drop facile da usare che consente di creare giochi retrò per il sistema di videogiochi portatile GameBoy.
È disponibile per Windows, Mac e Linux e può essere scaricato da Itch.io.
Il software non richiede alcuna conoscenza di programmazione e supporta diversi generi di gioco. Include anche un editor musicale integrato e consente di creare veri e propri file ROM che possono essere riprodotti su qualsiasi emulatore GameBoy.
GB Studio è un creatore di giochi retrò per il GameBoy che consente agli utenti di creare giochi trascinandoli.
Il GameBoy ha storicamente richiesto la programmazione in assembly, ma GB Studio fornisce un motore di gioco WYSIWYG per facilitare lo sviluppo dei giochi.
GB Studio esporta file ROM che possono essere eseguiti su emulatori, pagine Web o su hardware GameBoy reale.
L'autore esprime la propria frustrazione per l'emergere di nuovi linguaggi di interrogazione nell'industria e sostiene che l'uso di SQL come linguaggio comune per i database di uso generale è più pratico ed efficiente.
L'autore confronta un nuovo linguaggio di interrogazione chiamato FancyQL con SQL, evidenziando che SQL non è così complesso come spesso viene presentato e può gestire efficacemente le attività legate ai dati.
L'autore sottolinea i vantaggi di SQL, come la sua diffusione, il supporto dei principali motori di database e il continuo miglioramento attraverso un comitato di standard. L'autore sostiene che non c'è bisogno di un linguaggio di query di fantasia quando SQL è già in grado di farlo.
Le query SQL possono presentare degli inconvenienti quando si tratta di interrogare database di tipo e molteplicità diversi, con conseguente ridondanza dell'output e mancanza di gestione degli errori.
Il supporto JSON nei database consente di aggregare i risultati di una sotto-selezione in un'unica colonna, garantendo una maggiore flessibilità nell'interrogazione.
Linguaggi di interrogazione alternativi come EdgeQL e PRQL mirano a migliorare i limiti di SQL, ma SQL rimane uno strumento prezioso e ampiamente utilizzato nel settore.
Il post illustra le tecniche per accelerare l'addestramento e l'inferenza dei modelli linguistici di grandi dimensioni (LLM), in modo da utilizzare una finestra di contesto fino a 100K token in ingresso, un numero significativamente maggiore rispetto ai modelli precedenti.
Vengono spiegati i limiti dell'architettura originale di Transformer quando si lavora con contesti di grandi dimensioni, tra cui la complessità quadratica del tempo e dello spazio delle computazioni del livello di attenzione.
Vengono presentate diverse tecniche di ottimizzazione, tra cui ALiBi positional embedding, Sparse Attention, FlashAttention, Multi-Query attention, Conditional computation e l'uso di GPU A100 da 80GB, che aiutano ad aumentare la lunghezza del contesto e a migliorare l'efficienza degli LLM.
Il modello 100k di Anthropics impiega tecniche intelligenti per estendere la finestra del contesto, ma presenta alcune imperfezioni.
Posizionare le istruzioni dopo il testo di riferimento nell'input può aiutare il modello a prestare maggiore attenzione ad esse.
L'impossibilità di memorizzare nella cache i trasformatori rende costose le finestre di contesto di grandi dimensioni, ma il progetto RWKV-LM su GitHub offre una potenziale soluzione.
Claude di Anthropics supera GPT4 in alcuni casi e si colloca complessivamente tra GPT4 e Bard.
La posizione del prompt nell'input può influenzare l'"attenzione" del modello e la sua tendenza alla recenza.
I trasformatori sono stati progettati per evitare problemi di posizione, ma alcuni casi dimostrano che la distorsione da ricorrenza può essere ancora presente.
I LLM possono faticare ad assegnare lo stesso livello di attenzione a tutte le parti dell'input nell'intera finestra di contesto.
La Claude di Anthropics è considerata poco apprezzata, ma l'accesso ad essa è attualmente difficile.
I requisiti computazionali per contesti di grandi dimensioni possono essere significativi, ma possono valere la pena per applicazioni specifiche come la programmazione.
L'addestramento di LLM con finestre di contesto ampie richiede molte risorse, ma la compressione e l'ottimizzazione dei modelli possono migliorare l'efficienza.
Le grandi dimensioni del contesto sono necessarie per compiti come il richiamo di fatti e la comprensione di storie lunghe.
È necessario disporre di benchmark che si concentrino su compiti che richiedono grandi dimensioni di contesto.
La compressione con perdita di dati può garantire una qualità migliore rispetto alla compressione senza perdita di dati quando si tratta di LLM.
I metodi di codifica posizionale, come le incorporazioni sinusoidali, potrebbero non essere adatti a contesti di grandi dimensioni.
La conoscenza dell'IA in generale è essenziale, ma riprodurre o modificare gli LLM in modo indipendente richiede risorse significative.
Sono in corso ricerche per migliorare la scalabilità degli LLM in termini di requisiti di calcolo e di memoria.
L'uso di codifiche posizionali apprese consente una messa a punto fine su contesti di dimensioni maggiori.
L'articolo manca di spiegazioni dettagliate e fa affermazioni vaghe sulla scalabilità del contesto negli LLM.
C'è interesse a esplorare diversi paradigmi e tecniche per affrontare la complessità computazionale di contesti di grandi dimensioni.
Il blog GoPenAI, dove è ospitato l'articolo, non è affiliato a OpenAI nonostante la somiglianza nel nome del dominio.
Le ricerche dimostrano che individui innocenti possono essere convinti, attraverso opportune tecniche di interrogatorio, di aver commesso un crimine che in realtà non è mai avvenuto.
I falsi ricordi di crimini commessi possono essere generati in poche ore attraverso un ambiente di interrogatorio amichevole e l'introduzione di dettagli sbagliati.
L'inserimento di dettagli veri nei racconti di eventi falsi può farli sembrare più plausibili, inducendo gli individui a fornire descrizioni ricche e dettagliate di eventi mai accaduti.
La tecnica Reid utilizzata dalle forze dell'ordine può portare a false confessioni e a condanne errate.
La ricerca psicologica dimostra che è possibile impiantare falsi ricordi, portando le persone a credere falsamente di aver commesso un crimine.
Lo studio solleva interrogativi sull'affidabilità della memoria umana e sulle sue implicazioni per il sistema di giustizia penale.
Perché Apple si rifiuta di aggiungere lo snapping delle finestre a macOS?- In questo post si parla del motivo per cui Apple non ha aggiunto una funzione chiamata "window snapping" al suo sistema operativo macOS.
Lo snapping delle finestre è una funzione che consente agli utenti di organizzare e ridimensionare facilmente le finestre aperte sullo schermo del computer.
Il post esplora diverse prospettive sul perché Apple abbia deciso di non includere questa funzione in macOS.
Gli utenti si chiedono perché Apple non abbia aggiunto una funzione di scatto delle finestre a macOS, esprimendo frustrazione per il comportamento predefinito del pulsante verde sulle finestre di macOS.
La discussione evidenzia l'interesse e la richiesta di una funzione di snap delle finestre in macOS, nonché le varie soluzioni e opzioni di personalizzazione disponibili per gli utenti.
Molti utenti esprimono la frustrazione di dover utilizzare applicazioni di terze parti per gestire le finestre in modo efficace e consigliano soluzioni come Magnet, Rectangle e Amethyst per la gestione delle finestre.
L'analisi delle prestazioni dei server ARM64 di Hetzner mostra che le prestazioni sono molto buone, con la macchina CAX21 che è solo l'8% più lenta della macchina CPX21 nella velocità di conversione WebP.
Hetzner offre il prezzo più basso per i server ARM64 rispetto ad altri fornitori di servizi popolari.
WebP Cloud Services ha migrato tutti i suoi servizi sui server ARM64 di Hetzner grazie alle loro prestazioni impressionanti e alla loro economicità.
L'autore dell'articolo ha commesso un errore nel descrivere il processore E3-1230 come un server a 8 core, mentre in realtà si tratta di un server a 4 core con 8 thread.
Alcuni utenti hanno riscontrato difficoltà nell'utilizzo di immagini ARM in Docker, poiché spesso sono incomplete o in ritardo rispetto al ciclo di rilascio x86.
I server ARM64 di Hetzner rappresentano un'alternativa economica ai server x86, con prestazioni comparabili e un significativo risparmio sui costi.
Il filesystem bcachefs, che mira a fornire elevate prestazioni e affidabilità, si sta avvicinando all'integrazione nel kernel Linux principale.
Il creatore di bcachefs, Kent Overstreet, ha discusso lo stato di avanzamento del filesystem, compresi i recenti miglioramenti della scalabilità e l'implementazione di funzionalità come gli snapshot e la codifica di cancellazione.
Overstreet ha pubblicato le patch preliminari per la revisione e sta lavorando al processo di fusione di bcachefs, anche per risolvere i problemi relativi al supporto dei bug e alla revisione del codice.
Bcachefs, un nuovo file system, è in fase di fusione nel kernel Linux.
Sono state sollevate preoccupazioni sul numero di file system presenti nel kernel e sulle difficoltà di eliminarli a causa dello stretto accoppiamento tra file system e altri sottosistemi.
Bcachefs è in fase di sviluppo da oltre 10 anni e si dimostra promettente, ma ci vorrà ancora del tempo prima che venga raccomandato per un uso diffuso.