Passa al contenuto principale

2023-06-18

Carattere a matrice di punti della metropolitana di Londra

  • Il London Underground Dot Matrix Typeface è un insieme di caratteri che riproducono quelli utilizzati sui tabelloni degli arrivi e degli annunci della metropolitana di Londra.
  • Il carattere comprende diversi pesi e rappresenta i caratteri utilizzati in diversi periodi della rete della metropolitana.
  • Il carattere è stato creato utilizzando materiali di riferimento come fotografie e video, e c'è la possibilità di contribuire aggiungendo nuovi caratteri ai caratteri esistenti.

Reazioni del settore

  • Il carattere a matrice di punti della metropolitana di Londra è stato ricreato da un designer e reso disponibile su GitHub.
  • Il carattere è caratteristico e riconoscibile, con le lettere maiuscole che si estendono al di sotto della linea di base.
  • Il carattere era probabilmente unico per la metropolitana di Londra, ma è possibile che vi siano somiglianze con i caratteri utilizzati in altri sistemi di trasporto.

Aggiornamento: U+237C ⍼ &Angzarr;

  • Il post analizza l'origine e la storia del simbolo U+237C ⍼ ANGOLO DESTRO CON FRECCIA ZIGZAG DOWNWARDS nello standard Unicode.
  • L'indagine fa risalire il simbolo all'ISO/IEC TR 9573-13, un rapporto tecnico per SGML, e alla Monotype con il numero di matrice S16139.
  • L'autore ha incontrato difficoltà nel trovare documentazione specifica relativa al simbolo, ma l'indagine è in corso.

Reazioni del settore

  • L'articolo parla della ricerca del significato e dell'origine di un misterioso simbolo chiamato U+237C ⍼ &Angzarr;
  • L'autore ha fatto richiesta alla Cambridge Library di scansioni di documenti relativi al simbolo, ma gli è stato risposto che superava le leggi sul copyright e i limiti di scansione.
  • I lettori sono interessati a contribuire al finanziamento della richiesta digitale e a trovare un modo per continuare la ricerca.

Cazzate di lavoro (2018)

  • I lavori "stronzi" sono posizioni inutili e non necessarie che esistono sia nel settore pubblico che in quello privato, causando frustrazione tra i dipendenti e minando il vero scopo delle organizzazioni.
  • Molti lavoratori si sentono intrappolati nei loro lavori senza senso e lottano per trovare un equilibrio tra la necessità di un lavoro significativo e le richieste dei loro lavori BS, con effetti negativi sulla loro salute mentale e sulla loro autostima.
  • Il concetto di Reddito di Base Universale (UBI) è visto come una potenziale soluzione per affrontare il problema dei posti di lavoro "spazzatura" e della disuguaglianza di reddito, consentendo agli individui di scegliere come impiegare il proprio tempo e contribuire alla società.

Reazioni dell'industria

  • Il libro "Bullshit Jobs" di David Graeber esplora il concetto di lavori percepiti come inutili o non necessari dagli stessi dipendenti.
  • Il libro solleva domande sulla natura del lavoro, sull'impatto della burocrazia sulle organizzazioni e sul significato e il valore che le persone traggono dal proprio lavoro.
  • Il concetto di "bullshit jobs" ha dato vita a conversazioni sul futuro del lavoro e sulla necessità di un'occupazione significativa.

GB Studio: creatore di giochi retrò drag and drop per GameBoy

  • GB Studio è un creatore di giochi drag and drop facile da usare che consente di creare giochi retrò per il sistema di videogiochi portatile GameBoy.
  • È disponibile per Windows, Mac e Linux e può essere scaricato da Itch.io.
  • Il software non richiede alcuna conoscenza di programmazione e supporta diversi generi di gioco. Include anche un editor musicale integrato e consente di creare veri e propri file ROM che possono essere riprodotti su qualsiasi emulatore GameBoy.

Reazioni del settore

  • GB Studio è un creatore di giochi retrò per il GameBoy che consente agli utenti di creare giochi trascinandoli.
  • Il GameBoy ha storicamente richiesto la programmazione in assembly, ma GB Studio fornisce un motore di gioco WYSIWYG per facilitare lo sviluppo dei giochi.
  • GB Studio esporta file ROM che possono essere eseguiti su emulatori, pagine Web o su hardware GameBoy reale.

Non ho bisogno del tuo linguaggio di interrogazione

  • L'autore esprime la propria frustrazione per l'emergere di nuovi linguaggi di interrogazione nell'industria e sostiene che l'uso di SQL come linguaggio comune per i database di uso generale è più pratico ed efficiente.
  • L'autore confronta un nuovo linguaggio di interrogazione chiamato FancyQL con SQL, evidenziando che SQL non è così complesso come spesso viene presentato e può gestire efficacemente le attività legate ai dati.
  • L'autore sottolinea i vantaggi di SQL, come la sua diffusione, il supporto dei principali motori di database e il continuo miglioramento attraverso un comitato di standard. L'autore sostiene che non c'è bisogno di un linguaggio di query di fantasia quando SQL è già in grado di farlo.

Reazioni del settore

  • Le query SQL possono presentare degli inconvenienti quando si tratta di interrogare database di tipo e molteplicità diversi, con conseguente ridondanza dell'output e mancanza di gestione degli errori.
  • Il supporto JSON nei database consente di aggregare i risultati di una sotto-selezione in un'unica colonna, garantendo una maggiore flessibilità nell'interrogazione.
  • Linguaggi di interrogazione alternativi come EdgeQL e PRQL mirano a migliorare i limiti di SQL, ma SQL rimane uno strumento prezioso e ampiamente utilizzato nel settore.

La salsa segreta dietro la finestra di contesto 100K nei LLM: tutti i trucchi in un unico posto

  • Il post illustra le tecniche per accelerare l'addestramento e l'inferenza dei modelli linguistici di grandi dimensioni (LLM), in modo da utilizzare una finestra di contesto fino a 100K token in ingresso, un numero significativamente maggiore rispetto ai modelli precedenti.
  • Vengono spiegati i limiti dell'architettura originale di Transformer quando si lavora con contesti di grandi dimensioni, tra cui la complessità quadratica del tempo e dello spazio delle computazioni del livello di attenzione.
  • Vengono presentate diverse tecniche di ottimizzazione, tra cui ALiBi positional embedding, Sparse Attention, FlashAttention, Multi-Query attention, Conditional computation e l'uso di GPU A100 da 80GB, che aiutano ad aumentare la lunghezza del contesto e a migliorare l'efficienza degli LLM.

Reazioni del settore

  • Il modello 100k di Anthropics impiega tecniche intelligenti per estendere la finestra del contesto, ma presenta alcune imperfezioni.
  • Posizionare le istruzioni dopo il testo di riferimento nell'input può aiutare il modello a prestare maggiore attenzione ad esse.
  • L'impossibilità di memorizzare nella cache i trasformatori rende costose le finestre di contesto di grandi dimensioni, ma il progetto RWKV-LM su GitHub offre una potenziale soluzione.
  • Claude di Anthropics supera GPT4 in alcuni casi e si colloca complessivamente tra GPT4 e Bard.
  • La posizione del prompt nell'input può influenzare l'"attenzione" del modello e la sua tendenza alla recenza.
  • I trasformatori sono stati progettati per evitare problemi di posizione, ma alcuni casi dimostrano che la distorsione da ricorrenza può essere ancora presente.
  • I LLM possono faticare ad assegnare lo stesso livello di attenzione a tutte le parti dell'input nell'intera finestra di contesto.
  • La Claude di Anthropics è considerata poco apprezzata, ma l'accesso ad essa è attualmente difficile.
  • I requisiti computazionali per contesti di grandi dimensioni possono essere significativi, ma possono valere la pena per applicazioni specifiche come la programmazione.
  • L'addestramento di LLM con finestre di contesto ampie richiede molte risorse, ma la compressione e l'ottimizzazione dei modelli possono migliorare l'efficienza.
  • Le grandi dimensioni del contesto sono necessarie per compiti come il richiamo di fatti e la comprensione di storie lunghe.
  • È necessario disporre di benchmark che si concentrino su compiti che richiedono grandi dimensioni di contesto.
  • La compressione con perdita di dati può garantire una qualità migliore rispetto alla compressione senza perdita di dati quando si tratta di LLM.
  • I metodi di codifica posizionale, come le incorporazioni sinusoidali, potrebbero non essere adatti a contesti di grandi dimensioni.
  • La conoscenza dell'IA in generale è essenziale, ma riprodurre o modificare gli LLM in modo indipendente richiede risorse significative.
  • Sono in corso ricerche per migliorare la scalabilità degli LLM in termini di requisiti di calcolo e di memoria.
  • L'uso di codifiche posizionali apprese consente una messa a punto fine su contesti di dimensioni maggiori.
  • L'articolo manca di spiegazioni dettagliate e fa affermazioni vaghe sulla scalabilità del contesto negli LLM.
  • C'è interesse a esplorare diversi paradigmi e tecniche per affrontare la complessità computazionale di contesti di grandi dimensioni.
  • Il blog GoPenAI, dove è ospitato l'articolo, non è affiliato a OpenAI nonostante la somiglianza nel nome del dominio.

Le persone possono essere convinte di aver commesso un crimine che non è mai avvenuto (2015)

  • Le ricerche dimostrano che individui innocenti possono essere convinti, attraverso opportune tecniche di interrogatorio, di aver commesso un crimine che in realtà non è mai avvenuto.
  • I falsi ricordi di crimini commessi possono essere generati in poche ore attraverso un ambiente di interrogatorio amichevole e l'introduzione di dettagli sbagliati.
  • L'inserimento di dettagli veri nei racconti di eventi falsi può farli sembrare più plausibili, inducendo gli individui a fornire descrizioni ricche e dettagliate di eventi mai accaduti.

Reazioni del settore

  • La tecnica Reid utilizzata dalle forze dell'ordine può portare a false confessioni e a condanne errate.
  • La ricerca psicologica dimostra che è possibile impiantare falsi ricordi, portando le persone a credere falsamente di aver commesso un crimine.
  • Lo studio solleva interrogativi sull'affidabilità della memoria umana e sulle sue implicazioni per il sistema di giustizia penale.

Perché Apple si rifiuta di aggiungere lo snapping delle finestre a macOS?- In questo post si parla del motivo per cui Apple non ha aggiunto una funzione chiamata "window snapping" al suo sistema operativo macOS.

  • Lo snapping delle finestre è una funzione che consente agli utenti di organizzare e ridimensionare facilmente le finestre aperte sullo schermo del computer.
  • Il post esplora diverse prospettive sul perché Apple abbia deciso di non includere questa funzione in macOS.

Reazioni del settore

  • Gli utenti si chiedono perché Apple non abbia aggiunto una funzione di scatto delle finestre a macOS, esprimendo frustrazione per il comportamento predefinito del pulsante verde sulle finestre di macOS.
  • La discussione evidenzia l'interesse e la richiesta di una funzione di snap delle finestre in macOS, nonché le varie soluzioni e opzioni di personalizzazione disponibili per gli utenti.
  • Molti utenti esprimono la frustrazione di dover utilizzare applicazioni di terze parti per gestire le finestre in modo efficace e consigliano soluzioni come Magnet, Rectangle e Amethyst per la gestione delle finestre.

Recensione dei server Hetzner ARM64 ed esperienza dei servizi cloud WebP su di essi

  • L'analisi delle prestazioni dei server ARM64 di Hetzner mostra che le prestazioni sono molto buone, con la macchina CAX21 che è solo l'8% più lenta della macchina CPX21 nella velocità di conversione WebP.
  • Hetzner offre il prezzo più basso per i server ARM64 rispetto ad altri fornitori di servizi popolari.
  • WebP Cloud Services ha migrato tutti i suoi servizi sui server ARM64 di Hetzner grazie alle loro prestazioni impressionanti e alla loro economicità.

Reazioni del settore

  • L'autore dell'articolo ha commesso un errore nel descrivere il processore E3-1230 come un server a 8 core, mentre in realtà si tratta di un server a 4 core con 8 thread.
  • Alcuni utenti hanno riscontrato difficoltà nell'utilizzo di immagini ARM in Docker, poiché spesso sono incomplete o in ritardo rispetto al ciclo di rilascio x86.
  • I server ARM64 di Hetzner rappresentano un'alternativa economica ai server x86, con prestazioni comparabili e un significativo risparmio sui costi.

Fusione di bcachefs

  • Il filesystem bcachefs, che mira a fornire elevate prestazioni e affidabilità, si sta avvicinando all'integrazione nel kernel Linux principale.
  • Il creatore di bcachefs, Kent Overstreet, ha discusso lo stato di avanzamento del filesystem, compresi i recenti miglioramenti della scalabilità e l'implementazione di funzionalità come gli snapshot e la codifica di cancellazione.
  • Overstreet ha pubblicato le patch preliminari per la revisione e sta lavorando al processo di fusione di bcachefs, anche per risolvere i problemi relativi al supporto dei bug e alla revisione del codice.

Reazioni del settore

  • Bcachefs, un nuovo file system, è in fase di fusione nel kernel Linux.
  • Sono state sollevate preoccupazioni sul numero di file system presenti nel kernel e sulle difficoltà di eliminarli a causa dello stretto accoppiamento tra file system e altri sottosistemi.
  • Bcachefs è in fase di sviluppo da oltre 10 anni e si dimostra promettente, ma ci vorrà ancora del tempo prima che venga raccomandato per un uso diffuso.