Le London Underground Dot Matrix Typeface est un ensemble de polices de caractères qui reproduisent les polices utilisées sur les panneaux d'arrivée et les panneaux d'annonce du système de transport souterrain londonien.
La police de caractères comprend différentes graisses et représente les polices utilisées à différentes époques sur le réseau du métro.
La police de caractères est créée à partir de documents de référence tels que des photographies et des vidéos, et il est possible d'y contribuer en ajoutant de nouveaux caractères aux polices existantes.
La police de caractères matricielle du métro de Londres a été recréée par un designer et mise à disposition sur GitHub.
La police est distinctive et reconnaissable, les lettres capitales se prolongeant sous la ligne de base.
La police était probablement unique au métro de Londres, mais il peut y avoir des similitudes avec les polices utilisées dans d'autres systèmes de transport en commun.
L'article traite de la recherche de la signification et de l'origine d'un symbole mystérieux appelé U+237C ⍼ &Angzarr ;
L'auteur a demandé à la bibliothèque de Cambridge de numériser les documents relatifs à ce symbole, mais il lui a été répondu que cela dépassait la loi sur les droits d'auteur et les limites de numérisation.
Les lecteurs sont intéressés par une aide au financement de la demande numérique et par la recherche d'un moyen de poursuivre la recherche.
Les emplois à la con sont des postes sans intérêt et inutiles qui existent dans les secteurs public et privé, provoquant la frustration des employés et sapant la véritable raison d'être des organisations.
De nombreux travailleurs se sentent piégés dans leurs emplois sans intérêt et luttent pour trouver un équilibre entre le besoin d'un travail utile et les exigences de leurs emplois à la con, ce qui a des effets négatifs sur leur santé mentale et leur estime de soi.
Le concept de revenu de base universel (RBU) est considéré comme une solution potentielle au problème des bullshit jobs et de l'inégalité des revenus, permettant aux individus de choisir la manière dont ils passent leur temps et contribuent à la société.
Le livre "Bullshit Jobs" de David Graeber explore le concept des emplois qui sont perçus comme inutiles par les employés eux-mêmes.
Le livre soulève des questions sur la nature du travail, l'impact de la bureaucratie sur les organisations, et le sens et la valeur que les gens tirent de leur travail.
Le concept de bullshit jobs a suscité des conversations sur l'avenir du travail et la nécessité d'un emploi qui ait du sens.
GB Studio est un créateur de jeux convivial qui permet de créer des jeux rétro pour le système de jeu vidéo portable GameBoy.
Il est disponible pour Windows, Mac et Linux et peut être téléchargé sur Itch.io.
Le logiciel ne nécessite aucune connaissance en programmation et prend en charge de nombreux genres de jeux. Il comprend également un éditeur de musique intégré et vous permet de créer de véritables fichiers ROM qui peuvent être lus sur n'importe quel émulateur GameBoy.
GB Studio est un créateur de jeux rétro pour la GameBoy qui permet aux utilisateurs de créer des jeux par glisser-déposer.
La GameBoy a toujours nécessité une programmation par assemblage, mais GB Studio fournit un moteur de jeu WYSIWYG qui facilite le développement des jeux.
GB Studio exporte des fichiers ROM qui peuvent être exécutés sur des émulateurs, des pages web ou sur du matériel GameBoy réel.
L'auteur exprime sa frustration face à l'émergence de nouveaux langages de requête dans l'industrie et soutient que l'utilisation de SQL comme langage de base commun pour les bases de données à usage général est plus pratique et plus efficace.
L'auteur compare un nouveau langage d'interrogation appelé FancyQL avec SQL, en soulignant que ce dernier n'est pas aussi complexe qu'il est souvent présenté et qu'il peut traiter efficacement des tâches liées aux données.
L'auteur souligne les avantages de SQL, tels que son utilisation répandue, le soutien des principaux moteurs de base de données et l'amélioration continue par le biais d'un comité de normalisation. Il affirme qu'il n'est pas nécessaire d'utiliser un langage de requête sophistiqué lorsque SQL est déjà capable de le faire.
Les requêtes SQL peuvent présenter des inconvénients lorsqu'il s'agit d'interroger des bases de données de types différents et multiples, ce qui entraîne des résultats redondants et un manque de gestion des erreurs.
La prise en charge de JSON dans les bases de données permet d'agréger les résultats des sous-sélections en une seule colonne, ce qui offre une plus grande souplesse dans les requêtes.
D'autres langages d'interrogation, tels que EdgeQL et PRQL, visent à améliorer les limites de SQL, mais ce dernier reste un outil précieux et largement utilisé dans l'industrie.
Ce billet traite des techniques permettant d'accélérer la formation et l'inférence des grands modèles de langage (LLM) afin d'utiliser une fenêtre contextuelle pouvant contenir jusqu'à 100 000 tokens d'entrée, ce qui est nettement plus important que les modèles précédents.
Les limitations de l'architecture originale de Transformer lors de l'utilisation de grandes longueurs de contexte sont expliquées, y compris la complexité quadratique en temps et en espace des calculs de la couche d'attention.
Plusieurs techniques d'optimisation sont présentées, notamment l'intégration positionnelle ALiBi, l'attention éparse, l'attention flash, l'attention multi-requête, le calcul conditionnel et l'utilisation de GPU A100 de 80 Go, qui permettent d'augmenter la longueur du contexte et d'améliorer l'efficacité des LLM.
Le modèle 100k d'Anthropics utilise des techniques astucieuses pour étendre la fenêtre contextuelle, mais il présente quelques imperfections.
Le fait de placer les instructions après le texte de référence dans l'entrée peut aider le modèle à leur accorder plus d'attention.
L'impossibilité de mettre en cache les transformateurs rend les grandes fenêtres contextuelles coûteuses, mais le projet RWKV-LM sur GitHub offre une solution potentielle.
Le Claude d'Anthropics surpasse le GPT4 dans certains cas et se classe globalement entre le GPT4 et Bard.
La position de l'invite dans l'entrée peut affecter l'"attention" du modèle et le biais de récence.
Les transformateurs ont été conçus pour éviter les problèmes de position, mais certains cas montrent que le biais de récence peut toujours être présent.
Les LLM peuvent avoir du mal à allouer le même niveau d'attention à toutes les parties de l'entrée sur l'ensemble de la fenêtre contextuelle.
Claude d'Anthropics est considéré comme sous-apprécié, mais son accès est actuellement difficile.
Les exigences en matière de calcul pour les contextes de grande taille peuvent être importantes, mais elles peuvent en valoir la peine pour des applications spécifiques telles que la programmation.
L'entraînement des LLM avec de grandes fenêtres de contexte est gourmand en ressources, mais la compression et l'optimisation des modèles peuvent améliorer l'efficacité.
Les contextes de grande taille sont nécessaires pour des tâches telles que le rappel de faits et la compréhension de longues histoires.
Il est nécessaire de disposer de critères de référence axés sur les tâches nécessitant des contextes de grande taille.
La compression avec perte peut améliorer la qualité par rapport à la compression sans perte lorsqu'il s'agit de LLM.
Les méthodes d'encodage positionnel telles que les encastrements sinusoïdaux peuvent ne pas être adaptées aux contextes de grande taille.
La connaissance de l'IA en général est essentielle, mais la reproduction ou la modification indépendante des LLM nécessite des ressources importantes.
Des recherches sont en cours pour améliorer l'évolutivité des LLM en termes d'exigences de calcul et de mémoire.
L'utilisation d'encodages positionnels appris permet un réglage fin sur des contextes de plus grande taille.
L'article manque d'explications détaillées et fait des déclarations vagues sur la mise à l'échelle du contexte dans les LLM.
Il est intéressant d'explorer différents paradigmes et techniques pour aborder la complexité informatique des contextes de grande taille.
Le blog GoPenAI, où l'article est hébergé, n'est pas affilié à l'OpenAI malgré la similitude du nom de domaine.
La recherche montre que des personnes innocentes peuvent être convaincues, grâce à des techniques d'interrogation appropriées, qu'elles ont commis un crime qui n'a jamais eu lieu.
De faux souvenirs de crimes peuvent être générés en quelques heures seulement grâce à des entretiens conviviaux et à l'introduction de détails erronés.
L'incorporation de détails véridiques dans les récits de faux événements peut les rendre plus plausibles, amenant les individus à fournir des descriptions riches et détaillées d'événements qui n'ont jamais eu lieu.
La technique Reid utilisée par les forces de l'ordre peut conduire à de faux aveux et à des condamnations injustifiées.
La recherche psychologique montre que de faux souvenirs peuvent être implantés, conduisant les gens à croire à tort qu'ils ont commis un crime.
L'étude soulève des questions sur la fiabilité de la mémoire humaine et ses implications pour le système de justice pénale.
Pourquoi Apple refuse-t-elle d'ajouter l'accrochage de fenêtre à macOS ?- Ce billet explique pourquoi Apple n'a pas ajouté une fonction appelée "window snapping" à son système d'exploitation macOS.
L'accrochage de fenêtre est une fonction qui permet aux utilisateurs d'arranger et de redimensionner facilement les fenêtres ouvertes sur l'écran de leur ordinateur.
L'article explore différents points de vue sur les raisons pour lesquelles Apple a choisi de ne pas inclure cette fonctionnalité dans macOS.
Les utilisateurs se demandent pourquoi Apple n'a pas ajouté de fonction d'accrochage de fenêtre à macOS, exprimant leur frustration face au comportement par défaut du bouton vert sur les fenêtres de macOS.
La discussion met en évidence l'intérêt et la demande pour une fonction d'accrochage de fenêtre dans macOS, ainsi que les diverses solutions de contournement et options de personnalisation disponibles pour les utilisateurs.
De nombreux utilisateurs expriment leur frustration de devoir utiliser des applications tierces pour gérer efficacement les fenêtres et recommandent des solutions telles que Magnet, Rectangle et Amethyst pour la gestion des fenêtres.
L'analyse des performances des serveurs ARM64 de Hetzner montre qu'ils sont très performants, la machine CAX21 n'étant que 8% plus lente que la machine CPX21 en termes de vitesse de conversion WebP.
Hetzner propose le prix le plus bas pour les serveurs ARM64 par rapport à d'autres fournisseurs de services populaires.
WebP Cloud Services a migré tous ses services vers les serveurs ARM64 de Hetzner en raison de leurs performances impressionnantes et de leur rentabilité.
L'auteur de l'article a commis une erreur en décrivant le processeur E3-1230 comme un serveur à 8 cœurs, alors qu'il s'agit en fait d'un serveur à 4 cœurs avec 8 threads.
Certains utilisateurs ont rencontré des difficultés lors de l'utilisation d'images ARM dans Docker, car elles sont souvent incomplètes ou en retard sur le cycle de publication des versions x86.
Les serveurs ARM64 de Hetzner constituent une alternative économique aux serveurs x86, avec des performances comparables et des économies significatives.
Le système de fichiers bcachefs, qui vise à offrir des performances et une fiabilité élevées, est sur le point d'être intégré au noyau Linux principal.
Le créateur de bcachefs, Kent Overstreet, a présenté l'état d'avancement du système de fichiers, notamment les récentes améliorations en matière d'évolutivité et la mise en œuvre de fonctionnalités telles que les instantanés et le codage par effacement.
Overstreet a publié des correctifs préliminaires pour examen et travaille sur le processus de fusion de bcachefs, notamment en répondant aux préoccupations concernant le support des bogues et l'examen du code.
Bcachefs, un nouveau système de fichiers, est en cours de fusion avec le noyau Linux.
Des inquiétudes ont été soulevées quant au nombre de systèmes de fichiers dans le noyau et aux difficultés à les supprimer en raison du couplage étroit entre les systèmes de fichiers et d'autres sous-systèmes.
Bcachefs est en cours de développement depuis plus de 10 ans et semble prometteur, mais il faudra encore un certain temps avant qu'il ne soit recommandé pour une utilisation généralisée.