Le London Underground Dot Matrix Typeface est un ensemble de polices de caractères qui reproduisent les polices utilisées sur les panneaux d'arrivée et les panneaux d'annonce du système de transport souterrain londonien.
La police de caractères comprend différentes graisses et représente les polices utilisées à différentes époques sur le réseau du métro.
La police de caractères est créée à partir de documents de référence tels que des photographies et des vidéos, et il est possible d'y contribuer en ajoutant de nouveaux caractères aux polices existantes.
La police de caractères matricielle du métro de Londres a été recréée par un designer et mise à disposition sur GitHub.
La police est distinctive et reconnaissable, les lettres capitales se prolongeant sous la ligne de base.
La police était probablement unique au métro de Londres, mais il peut y avoir des similitudes avec les polices utilisées dans d'autres systèmes de transport en commun.
L'article traite de la recherche de la signification et de l'origine d'un symbole mystérieux appelé U+237C ⍼ &Angzarr ;
L'auteur a demandé à la bibliothèque de Cambridge de numériser les documents relatifs à ce symbole, mais il lui a été répondu que cela dépassait la loi sur les droits d'auteur et les limites de numérisation.
Les lecteurs sont intéressés par une aide au financement de la demande numérique et par la recherche d'un moyen de poursuivre la recherche.
Les emplois à la con sont des postes sans intérêt et inutiles qui existent dans les secteurs public et privé, provoquant la frustration des employés et sapant la véritable raison d'être des organisations.
De nombreux travailleurs se sentent piégés dans leurs emplois sans intérêt et luttent pour trouver un équilibre entre le besoin d'un travail utile et les exigences de leurs emplois à la con, ce qui a des effets négatifs sur leur santé mentale et leur estime de soi.
Le concept de revenu de base universel (RBU) est considéré comme une solution potentielle au problème des bullshit jobs et de l'inégalité des revenus, permettant aux individus de choisir la manière dont ils passent leur temps et contribuent à la société.
Le livre "Bullshit Jobs" de David Graeber explore le concept des emplois qui sont perçus comme inutiles par les employés eux-mêmes.
Le livre soulève des questions sur la nature du travail, l'impact de la bureaucratie sur les organisations, et le sens et la valeur que les gens tirent de leur travail.
Le concept de bullshit jobs a suscité des conversations sur l'avenir du travail et la nécessité d'un emploi qui ait du sens.
GB Studio est un créateur de jeux convivial qui permet de créer des jeux rétro pour le système de jeu vidéo portable GameBoy.
Il est disponible pour Windows, Mac et Linux et peut être téléchargé sur Itch.io.
Le logiciel ne nécessite aucune connaissance en programmation et prend en charge de nombreux genres de jeux. Il comprend également un éditeur de musique intégré et vous permet de créer de véritables fichiers ROM qui peuvent être lus sur n'importe quel émulateur GameBoy.
GB Studio est un créateur de jeux rétro pour la GameBoy qui permet aux utilisateurs de créer des jeux par glisser-déposer.
La GameBoy a toujours nécessité une programmation par assemblage, mais GB Studio fournit un moteur de jeu WYSIWYG qui facilite le développement des jeux.
GB Studio exporte des fichiers ROM qui peuvent être exécutés sur des émulateurs, des pages web ou sur du matériel GameBoy réel.
L'auteur exprime sa frustration face à l'émergence de nouveaux langages de requête dans l'industrie et soutient que l'utilisation de SQL comme langage de base commun pour les bases de données à usage général est plus pratique et plus efficace.
L'auteur compare un nouveau langage d'interrogation appelé FancyQL avec SQL, en soulignant que ce dernier n'est pas aussi complexe qu'il est souvent présenté et qu'il peut traiter efficacement des tâches liées aux données.
L'auteur souligne les avantages de SQL, tels que son utilisation répandue, le soutien des principaux moteurs de base de données et l'amélioration continue par le biais d'un comité de normalisation. Il affirme qu'il n'est pas nécessaire d'utiliser un langage de requête sophistiqué lorsque SQL est déjà capable de le faire.
Les requêtes SQL peuvent présenter des inconvénients lorsqu'il s'agit d'interroger des bases de données de types différents et multiples, ce qui entraîne des résultats redondants et un manque de gestion des erreurs.
La prise en charge de JSON dans les bases de données permet d'agréger les résultats des sous-sélections en une seule colonne, ce qui offre une plus grande souplesse dans les requêtes.
D'autres langages d'interrogation, tels que EdgeQL et PRQL, visent à améliorer les limites de SQL, mais ce dernier reste un outil précieux et largement utilisé dans l'industrie.
Ce billet traite des techniques permettant d'accélérer la formation et l'inférence des grands modèles de langage (LLM) afin d'utiliser une fenêtre contextuelle pouvant contenir jusqu'à 100 000 tokens d'entrée, ce qui est nettement plus important que les modèles précédents.
Les limitations de l'architecture originale de Transformer lors de l'utilisation de grandes longueurs de contexte sont expliquées, y compris la complexité quadratique en temps et en espace des calculs de la couche d'attention.
Plusieurs techniques d'optimisation sont présentées, notamment l'intégration positionnelle ALiBi, l'attention éparse, l'attention flash, l'attention multi-requête, le calcul conditionnel et l'utilisation de GPU A100 de 80 Go, qui permettent d'augmenter la longueur du contexte et d'améliorer l'efficacité des LLM.
Le modèle 100k d'Anthropics utilise des techniques astucieuses pour étendre la fenêtre contextuelle, mais il présente quelques imperfections.
Le fait de placer les instructions après le texte de référence dans l'entrée peut aider le modèle à leur accorder plus d'attention.
L'impossibilité de mettre en cache les transformateurs rend les grandes fenêtres contextuelles coûteuses, mais le projet RWKV-LM sur GitHub offre une solution potentielle.
Le Claude d'Anthropics surpasse le GPT4 dans certains cas et se classe globalement entre le GPT4 et Bard.
La position de l'invite dans l'entrée peut affecter l'"attention" du modèle et le biais de récence.
Les transformateurs ont été conçus pour éviter les problèmes de position, mais certains cas montrent que le biais de récence peut toujours être présent.
Les LLM peuvent avoir du mal à allouer le même niveau d'attention à toutes les parties de l'entrée sur l'ensemble de la fenêtre contextuelle.
Claude d'Anthropics est considéré comme sous-apprécié, mais son accès est actuellement difficile.
Les exigences en matière de calcul pour les contextes de grande taille peuvent être importantes, mais elles peuvent en valoir la peine pour des applications spécifiques telles que la programmation.
L'entraînement des LLM avec de grandes fenêtres de contexte est gourmand en ressources, mais la compression et l'optimisation des modèles peuvent améliorer l'efficacité.
Les contextes de grande taille sont nécessaires pour des tâches telles que le rappel de faits et la compréhension de longues histoires.
Il est nécessaire de disposer de critères de référence axés sur les tâches nécessitant des contextes de grande taille.
La compression avec perte peut améliorer la qualité par rapport à la compression sans perte lorsqu'il s'agit de LLM.
Les méthodes d'encodage positionnel telles que les encastrements sinusoïdaux peuvent ne pas être adaptées aux contextes de grande taille.
La connaissance de l'IA en général est essentielle, mais la reproduction ou la modification indépendante des LLM nécessite des ressources importantes.
Des recherches sont en cours pour améliorer l'évolutivité des LLM en termes d'exigences de calcul et de mémoire.
L'utilisation d'encodages positionnels appris permet un réglage fin sur des contextes de plus grande taille.
L'article manque d'explications détaillées et fait des déclarations vagues sur la mise à l'échelle du contexte dans les LLM.
Il est intéressant d'explorer différents paradigmes et techniques pour aborder la complexité informatique des contextes de grande taille.
Le blog GoPenAI, où l'article est hébergé, n'est pas affilié à l'OpenAI malgré la similitude du nom de domaine.