2023-04-06
En souvenir de Bob Lee
La communauté technologique pleure la perte de Bob Lee, une figure bien connue de l'industrie. M. Lee était un défenseur de Java, ayant travaillé chez Google et Square, et était connu pour son travail sur le cadre d'injection de dépendance Guice. Il était également cofondateur de l'Android Alliance, une initiative visant à promouvoir l'innovation dans l'écosystème Android. Les contributions de Lee au monde de la technologie étaient largement reconnues, et il manquera beaucoup à ses collègues et à ses pairs. Nombreux sont ceux qui ont partagé leurs condoléances sur les médias sociaux, se souvenant de Lee comme d'un mentor et d'un ami qui prenait toujours le temps de s'occuper des autres. Repose en paix, Bob Lee.
Discussion Service. Bob Lee, coauteur de Guice et des bibliothèques Java, réputé pour ses compétences techniques, sa gentillesse et son humilité, est décédé. Son décès a endeuillé la communauté technologique et a incité de nombreuses personnes à partager leurs souvenirs et anecdotes à son sujet. L'héritage d'innovation et de passion de Lee en a inspiré plus d'un, et sa contribution à l'industrie nous manquera. Bien que certains commentaires se soient éloignés de la réalité, la plupart ont partagé des pensées et des expériences positives à propos de Bob.
Bob Lee, ancien directeur technique de Square, est décédé après avoir été poignardé à San Francisco.
(https://www.sfgate.com/bayarea/article/mill-valley-man-killed-sf-stabbing-17878809.php). Bob Lee, le créateur de Cash App en tant que directeur de la technologie chez Square, a été identifié comme l'homme qui a été tué à San Francisco à la suite d'un incident de poignardage ; l'événement a choqué le monde de la technologie, les gens réagissant à la nouvelle soudaine. La police n'a procédé à aucune arrestation et n'a communiqué aucune information concernant d'éventuels suspects. Lee, âgé de 43 ans, était le fondateur de Cash App et travaillait comme Chief Product Officer chez MobileCoin au moment de sa mort.
Discussion Service. L'ancien directeur technique de Square, Bob Lee, tué à San Francisco, suscite un débat sur la criminalité et la gouvernance. Les commentaires portent sur la disparité des richesses, les sans-abri, l'embourgeoisement et les solutions potentielles. Le débat soulève des questions sur les systèmes politiques et les statistiques criminelles peu fiables dans les villes américaines. Les utilisateurs discutent des causes potentielles de la criminalité, notamment les migrations massives, l'inégalité des richesses, l'impact des systèmes judiciaires et le manque de réactivité de la police. Il n'est pas utile de comparer la criminalité entre différents pays ou cultures. La question de la criminalité est complexe et ne résulte pas d'un seul facteur.
Tell Discussion Service : iOS permet aux opérateurs d'ajouter des réseaux WiFi qu'il est impossible d'empêcher de rejoindre
Le système d'exploitation iOS permet aux opérateurs d'ajouter des réseaux WiFi auxquels les utilisateurs ne peuvent pas s'opposer. Cette fonctionnalité inquiète les utilisateurs d'iPhone dont les plans de données sont limités ou qui sont préoccupés par la protection de leur vie privée. Cette fonction a pour but d'aider les opérateurs à lancer des points d'accès WiFi, mais elle leur permet également d'ajouter des réseaux WiFi publics auxquels les utilisateurs se connectent à leur insu, ce qui peut entraîner la collecte de données sensibles. Les utilisateurs disposent d'un nombre limité d'options pour désactiver la fonction, notamment la désactivation complète du WiFi ou le choix d'"oublier ce réseau" chaque fois qu'ils le rencontrent. Certains utilisateurs demandent à Apple de mieux contrôler cette fonctionnalité, tandis que d'autres suggèrent d'utiliser un VPN pour protéger leurs données.
Discussion Service. iOS 16.4 permet aux opérateurs d'ajouter des réseaux gérés aux appareils, de réduire les coûts de téléphonie mobile et d'empêcher la désactivation de la jonction automatique, sans qu'il soit possible de supprimer ces réseaux autrement qu'en réinitialisant les paramètres réseau. Les utilisateurs signalent que T-Mobile vole des données et que les réseaux Wingman en vol ne s'éteignent pas, et se disent choqués par le fait que les opérateurs dictent les connexions WiFi sans que l'utilisateur n'ait de recours. Un débat s'ensuit sur la manière d'obtenir un contrôle complet de l'appareil, certains utilisateurs recommandant GrapheneOS pour les mises à jour de sécurité. Les hotspots WiFi des opérateurs sont critiqués parce qu'ils perturbent les connexions aux appareils locaux, alors que certains trouvent cette fonction utile dans les zones très fréquentées.
Les fondements de l'apprentissage profond pour une diffusion stable
Original. "Practical Deep Learning for Coders - Part 2" est un cours de plus de 30 heures de contenu vidéo qui comprend la couverture de l'algorithme Stable Diffusion à partir de zéro, en étroite collaboration avec des experts de Stable.ai et Hugging Face. Le cours fournit une couverture rigoureuse des dernières techniques et va même au-delà de ce que Stable Diffusion inclut, ce qui en fait un excellent objectif d'apprentissage pour de nombreuses raisons, cependant, pour tirer le meilleur parti de ce cours, vous devez être un praticien de l'apprentissage profond raisonnablement confiant. Tout au long du cours, nous explorerons les méthodes de diffusion, nous implémenterons nos propres modèles à partir de zéro, nous maîtriserons les concepts de Python et nous utiliserons PyTorch pour implémenter nos modèles. Nous couvrirons les fondements de la diffusion, les optimiseurs d'apprentissage profond, les concepts Python, les fondements de base, la génération de nombres pseudo-aléatoires, les architectures de réseaux neuronaux, les architectures génératives, les transformateurs et l'entraînement de précision mixte.
Discussion Service. Le cours "Deep Learning Foundations to Stable Diffusion" explore la modélisation générative moderne, tandis que certains recommandent de se concentrer sur le marketing. Le cours d'apprentissage profond de Fast.ai crée un cadre de programmation à partir de zéro et est recommandé à tous ceux qui s'y intéressent. Le débat porte sur les dangers potentiels de l'IA avancée et sur l'importance de la réglementation et des considérations éthiques. Les commentateurs suggèrent d'interdire la production d'IA, mais ce n'est pas une solution à long terme à moins que tous les pays ne le fassent. Le cours de FastAI ne contient pas de déclarations politiquement ou religieusement biaisées, et son contenu est considéré comme de premier ordre. Le cours est accessible à toute personne ayant des connaissances de base en mathématiques du secondaire et couvre des concepts avancés.
CAN Injection : Vol de voiture sans clé
Original. Les voleurs de voitures utilisent une nouvelle technique appelée injection CAN pour contourner les systèmes de clés intelligentes dans les voitures modernes en exploitant les vulnérabilités du protocole de communication du bus CAN. Les systèmes de sécurité automobile sophistiqués, y compris les dispositifs d'immobilisation du moteur, sont devenus vulnérables. Les voleurs utilisent un dispositif appelé CAN Injector pour voler les voitures sans la clé en injectant de faux messages dans le système de communication interne de la voiture. Le dispositif coûte 10 dollars et contient une puce PIC18F, un micrologiciel préprogrammé, un émetteur-récepteur et un circuit supplémentaire. Une solution rapide ou un message cryptographique peut vaincre l'injecteur CAN. Ian Haken décrit plusieurs façons dont les constructeurs automobiles pourraient contribuer à sécuriser les voitures, mais l'exploitation criminelle de la technique est largement répandue. Il s'agit d'un problème à l'échelle de l'industrie qui nécessite une mise à jour du logiciel de l'ECU pour vaincre les voleurs.
Discussion Service. Une technique de vol de voiture sans clé connue sous le nom de CAN Injection a été mise en évidence sur Hacker News. Les consommateurs doivent se méfier du cryptage ou de la signature du bus CAN, car cela peut limiter les outils de diagnostic tiers, ce qui augmente les coûts de réparation. Le bus CAN contrôle de nombreuses fonctions du véhicule et les constructeurs automobiles optimisent les coûts de manière impitoyable. Les constructeurs automobiles sont légalement tenus de se séparer des concessionnaires, mais certains commentaires critiquent leur respect de l'esprit de la loi. Les marques de voitures haut de gamme utilisent diverses mesures de sécurité pour empêcher le piratage des véhicules, notamment des dispositifs d'immobilisation dotés de protocoles cryptographiques appropriés pour authentifier les messages de démarrage et de déblocage et des trames CAN/FlexRay/Ethernet signées pour empêcher l'usurpation de messages. Les voitures bon marché sont ciblées car elles sont faciles à voler, tandis que les voitures coûteuses sont la cible de vols violents. L'exploit décrit dans l'article pourrait être appliqué à presque tous les véhicules non connectés fabriqués au cours de la dernière décennie. L'utilisation du bus CAN dans les systèmes critiques tels que l'aviation et l'automobile est due à sa simplicité de câblage et à sa rentabilité.
Les ingénieurs de Firefox découvrent un bogue de Windows Defender qui entraîne une utilisation élevée de l'unité centrale.
Original. N/A (Ce texte n'est pas lié au sujet).
Discussion Service. Les ingénieurs de Firefox ont découvert un bogue de Windows Defender causant l'utilisation du processeur sur le navigateur de Mozilla. Microsoft publie un correctif pour remédier à ce problème. D'autres produits AV peuvent également être à l'origine de problèmes d'utilisation du processeur. Firefox fait plus d'appels système que Chrome pour des raisons de sécurité. Une comparaison montre que Firefox est plus rapide que Chrome dans certains tests. Les experts discutent des limites de Defender, suggèrent le sandboxing et le MFA matériel. Les utilisateurs débattent de l'efficacité de Defender par rapport aux logiciels AV tiers. Certains utilisateurs signalent que Defender ralentit l'accès au système de fichiers.
Segment Anything Model (SAM) peut "découper" n'importe quel objet dans une image
Original. Le modèle Segment Anything (SAM) développé par Meta AI peut isoler n'importe quel objet dans une image avec une grande précision. Il peut identifier et segmenter avec succès des objets, même lorsqu'ils sont partiellement visibles ou occultés. SAM améliore les modèles précédemment développés qui s'appuyaient sur des indices de localisation ou des objets saillants. Plutôt que d'utiliser ces indices, SAM applique le méta-apprentissage, en tirant parti de l'apprentissage d'un modèle existant, afin de pouvoir détecter de petits ensembles de données biaisés ou des objets non vus. SAM peut être utilisé pour des applications pratiques, comme l'édition d'images, ainsi que pour la recherche dans le domaine de la vision par ordinateur.
Discussion Service. SAM de Meta AI permet de générer des masques en temps réel pour "découper" n'importe quel objet d'une image. La licence du modèle et ses impressionnantes capacités d'inférence pourraient le rendre populaire auprès des experts en technologie. Les problèmes incluent une vitesse plus lente avec le modèle RTX 2080ti 11GB et une précision limitée avec les objets transparents. Certains considèrent que la stratégie de lancement de Meta AI s'inscrit dans le cadre de l'adoption de la RA. Les utilisateurs font l'éloge de la réduction des coûts d'annotation des données de SAM, mais critiquent sa vitesse et la comparent à celle d'iOS. Le développement pourrait également avoir une application potentielle pour les caméras de sécurité et l'intégration d'AdobeAI.
Le livre blanc de Bitcoin est caché dans chaque copie de macOS
Original. Une copie PDF du livre blanc Bitcoin de Satoshi Nakamoto a été découverte dans toutes les copies modernes de macOS depuis Mojave en 2018, et il est possible d'y accéder par le biais d'un exemple de document dans l'utilitaire Image Capture. Le livre blanc est utilisé comme document d'exemple pour un périphérique appelé "Virtual Scanner II", qui est soit caché, soit non installé pour tout le monde par défaut. La raison de son inclusion n'est pas encore claire, mais il pourrait s'agir d'un PDF multipage pratique et léger à des fins de test. Il existe très peu d'informations en ligne sur Virtual Scanner II ou sur l'inclusion du livre blanc dans macOS.
Discussion Service. Le livre blanc Bitcoin est caché dans chaque copie de macOS depuis 2019 ; la raison de son inclusion fait l'objet de spéculations, et les utilisateurs mettent en garde contre le minage sur les iPhones. La somme de hachage correspond à la version originale, mais les théories varient sur la raison de son inclusion. Des plaintes ont été déposées au sujet de l'approbation d'un système de Ponzi, mais les utilisateurs précisent qu'il est caché. Apple l'a peut-être inclus pour des raisons de commodité, mais le message suscite un dialogue sur l'impact de Bitcoin. Les utilisateurs commentent l'image utilisée dans un article, la taille du fichier PDF et le fait que la technologie a perdu son plaisir artistique.
L'ancien directeur technique de Square, Bob Lee, poignardé à mort dans le centre de San Francisco
(https://sfstandard.com/criminal-justice/san-francisco-stabbing-victim-bob-lee-former-cto-square-mobilecoin/). L'ancien directeur technique de Square, Bob Lee, a été poignardé à mort dans le centre-ville de San Francisco, selon The Standard. M. Lee était le chef de produit de MobileCoin, une société de cryptographie de San Francisco, et un membre apprécié des communautés de développement de logiciels et de technologie de la région de la baie. La police de San Francisco n'a pas communiqué d'autres détails ni l'identité de la victime, et demande des témoins oculaires et des séquences vidéo pour son enquête. Au 2 avril, San Francisco comptait 12 homicides, soit deux de plus qu'à la même période l'année dernière. Le Standard couvre des sujets importants, notamment les questions de justice pénale à San Francisco, et fournit des bulletins d'information ainsi qu'une vue d'ensemble de la politique et de la culture de San Francisco.
Discussion Service. L'ancien directeur technique de Square, Bob Lee, a été poignardé à San Francisco ; les commentaires font référence à de nouveaux détails.
Les arguments en faveur de l'interdiction des médias sociaux aux enfants
Original. Le débat sur l'interdiction des médias sociaux aux enfants est en cours en raison des préoccupations liées à la dépendance et à la négativité. Certains projets de loi ont été adoptés pour restreindre l'accès des mineurs aux sites de médias sociaux et supprimer les fonctions addictives, mais cela soulève des questions de libertés civiles et limite l'accès aux informations et à des perspectives différentes, ce qui pose la question de la manière dont les médias sociaux devraient être traités. Alors que les tribunaux ont annulé les protections en ligne pour la sécurité des enfants, la création de messages anti-dépendance et les restrictions légales présentent des conflits potentiels avec les droits du premier amendement, et les parents pourraient être amenés à retirer physiquement les écrans. La protection des enfants en ligne fait l'objet d'un débat politique et culturel, ce qui laisse peu de confiance dans la capacité du gouvernement à réglementer les entreprises de médias sociaux.
Discussion Service. Un article préconise l'interdiction des médias sociaux aux moins de 18 ans en raison du risque de dépendance aux drogues ; la réglementation de ce type de contenu pose des difficultés. Un débat sur la définition et l'influence des publicités destinées aux enfants soulève des inquiétudes quant à la réglementation de la publicité. Les effets néfastes des médias sociaux sur la santé mentale et le développement personnel sont évoqués, ce qui conduit à suggérer d'interdire les médias sociaux d'entreprise et les flux algorithmiques. Une interdiction générale des médias sociaux n'est pas considérée comme la solution ; des approches nuancées sont nécessaires. Les utilisateurs de Discussion Service discutent des moyens efficaces de limiter le temps passé devant un écran et d'en combattre les effets négatifs. Le débat porte sur la recherche d'un équilibre entre la liberté individuelle et la responsabilité sociétale. Les inquiétudes concernant le contrôle des médias sociaux et la libération de dopamine dans le cerveau suscitent des discussions sur l'interdiction des médias sociaux alimentés par des algorithmes. La faisabilité et l'intrusion potentielle dans la vie privée sont mises en avant comme des préoccupations concernant les contrôles d'identité obligatoires pour les comptes de médias sociaux. Aucune nouvelle technologie ou publication majeure n'est abordée.
Dang aura bientôt 65 535 points de karma.
Original. L'utilisateur Discussion Service 'dang' devrait bientôt atteindre 65 535 points karma, ce qui est la limite maximale due à l'utilisation par le système d'un nombre entier signé de 16 bits.
Discussion Service. Daniel Gackle, alias Dang, sur le point d'atteindre 65 535 points de karma. La section des commentaires est remplie d'éloges sur le travail de Dang. Les utilisateurs se demandent si le karma va passer et discutent du passage à un int de 32 bits. Le style de modération et l'implication de Y Combinator sont remis en question. L'obtention d'un karma élevé est considérée comme un moyen d'apprécier le travail de Dang. Atteindre un niveau de karma élevé permet d'obtenir des capacités supplémentaires sur Discussion Service, telles que le vote par le haut et le vote par le bas.
Réseaux neuronaux : De zéro à héros
Original. Le cours "Neural Networks : Zero to Hero" par Andrej Karpathy enseigne la construction de réseaux neuronaux à partir de zéro dans le code. Le cours commence par les bases de la rétropropagation et progresse vers les réseaux neuronaux profonds modernes tels que GPT. Le cours se concentre sur les modèles de langage car ils constituent un excellent moyen d'apprendre l'apprentissage profond. Les prérequis incluent une programmation solide et un niveau introductif en mathématiques. Le cours comprend la construction de micrograd, makemore, un MLP, et la plongée dans certains aspects internes des MLP. Devenir un Backprop Ninja et construire WaveNet sont également abordés. Le cours se termine par la construction de GPT. Les vidéos fournissent une explication étape par étape et se concentrent sur l'acquisition de compétences et d'intuition sur la façon dont les réseaux neuronaux sont optimisés. Le cours recommande aux spectateurs de regarder les vidéos makemore précédentes pour être à l'aise avec le cadre de modélisation autorégressive du langage et les bases des tenseurs et de PyTorch nn.
Discussion Service. Le cours d'Andrej Karpathy " Neural Networks : Zero to Hero" d'Andrej Karpathy gagne plus de 300 points sur Hacker News en 6 heures. Les utilisateurs de Discussion Service font l'éloge de son style d'enseignement et recommandent de coder après avoir regardé les vidéos. Son cours sur les réseaux neuronaux dirigé par des pairs reçoit des commentaires positifs bien qu'il n'en fasse pas mention. La syntaxe spécifique à Python dans les vidéos pourrait poser problème à certains utilisateurs. Une discussion évalue l'accent mis par le cours sur la régression logistique et le perceptron. Les participants ont trouvé le cours facile à comprendre et recommandent d'autres cours pour les débutants. Certains utilisateurs s'interrogent sur les connaissances minimales des développeurs web, et un utilisateur a une théorie sur le lien entre la ML et l'algèbre de Hopf.
Une astuce pour atteindre le flux : Laissez votre travail brisé
Original. L'article traite de la difficulté d'atteindre un état de "fluidité" dans les tâches d'ingénierie et propose une astuce pour retrouver la fluidité. L'auteur suggère de laisser son travail dans un état manifestement défectueux mais facile à réparer avant de s'éloigner. Cela permet d'avoir un point de départ clair lorsqu'on reprend le travail, ce qui crée un élan et une confiance. L'article reconnaît que cette approche n'est peut-être pas universelle ou applicable en équipe, mais il invite les lecteurs à lui faire part de leurs commentaires sur d'autres astuces. L'article mentionne également brièvement l'ingénierie du recensement et les possibilités d'emploi.
Discussion Service. Les utilisateurs de Discussion Service partagent des conseils pour atteindre l'état de fluidité en laissant le travail inachevé, y compris la méthode "park facing downhill". Un directeur de l'ingénierie a mis en place la méthode consistant à quitter le travail à 18 heures pour éviter l'épuisement professionnel, mais y a mis fin en raison du présentéisme. Les utilisateurs discutent des avantages et des risques liés à l'application de règles strictes en matière de délais et au changement de culture professionnelle. Certains partagent des conseils de productivité tels que l'écriture des prochaines étapes et la pratique du TDD. Laisser le code dans un état "cassé" peut aider à le reprendre plus tard, mais les résultats sont mitigés.
La RAM est-elle effacée avant d'être utilisée dans un autre conteneur LXC ?
Original. Un message sur Information Security Stack Exchange demande si la mémoire vive est effacée avant d'être utilisée dans un autre conteneur LXC, ce qui conduit à une discussion sur le surprovisionnement de la mémoire vive dans LXC, un utilisateur indiquant que la mémoire allouée à un processus précédent dans un conteneur est effacée. Un post sur Hacker News va plus loin, discutant des bibliothèques partagées et des protections de l'espace de noms de l'utilisateur, et une réponse clarifie que les pages sont effacées avant l'allocation, que le surprovisionnement n'entraîne pas de partage, et que la mémoire LXC est allouée aux processus via les espaces de noms, mais que les processus sont séparés des ressources de l'hôte. Enfin, il est noté que la gestion de la mémoire basée sur la glibc n'implique pas de nettoyage et que les pages libres peuvent contenir des données.
Discussion Service. Les utilisateurs de Hacker News ont discuté de l'efficacité et de la nécessité de la mise à zéro automatique de la mémoire sous Linux, certains suggérant des méthodes alternatives pour nettoyer la mémoire inutilisée. Un utilisateur a souligné que le problème réside dans la conception de l'appel système fork() d'UNIX, et que de nombreux logiciels gourmands en mémoire sont encore confrontés à des problèmes d'OOM. D'autres commentaires traitent des différences entre l'allocation de mémoire overcommit et non-overcommit sous Linux et de l'importance de fixer des limites. L'article fournit des perspectives nuancées sur l'allocation de mémoire sous Linux et s'adresse aux experts dans ce domaine.
Perspective : BI Open Source alimentée par WebAssembly
Original. Perspective est un composant interactif d'analyse et de visualisation de données, conçu pour le streaming et les grands ensembles de données avec des rapports configurables, des tableaux de bord et des carnets de notes. Il est doté d'un moteur de requête en continu à mémoire réduite en C++ et Python et d'une interface utilisateur présentée sous la forme d'un élément personnalisé alimenté par WebAssembly ou WebSocket. L'interface utilisateur comprend des tableaux de bord interactifs qui peuvent être intégrés dans n'importe quel cadre d'application web. Perspective.js s'appuie sur WebAssembly et Apache Arrow pour des performances comparables à celles d'un ordinateur de bureau dans le navigateur. PerspectivePython met en œuvre l'API Perspective directement en Python pour la recherche ou la production. Il existe des widgets virtualisés et évolutifs, et le projet est disponible sur GitHub avec des guides d'utilisation et de programmation.
Discussion Service. L'outil BI open-source Perspective, alimenté par WebAssembly, est loué pour ses puissantes fonctionnalités, malgré des problèmes de performance : les solutions suggérées incluent l'utilisation d'une option plus légère. Les créateurs de Perspective travaillent à l'amélioration des performances et de la compatibilité mobile. Quelques inquiétudes ont été soulevées concernant la prise en charge de Firefox et l'accessibilité/la conception adaptée au clavier. Les limites de Sciter ont été discutées, les bibliothèques Tauri sont considérées comme potentiellement utiles. Des améliorations de performance sont nécessaires pour le projet Perspective.
Grid World
Original. L'article "Grid World" d'Alexander Miller explore le rôle des grilles dans sa vie, de l'enfance à l'âge adulte, y compris leur impact sur la technologie, l'art et la navigation. L'article aborde le pouvoir des grilles dans la cartographie et le contrôle de l'espace, comme on le voit dans des jeux tels que Battleship et Chess. La grille devient un pivot central qui relie les expériences personnelles de Miller, montrant comment elle fait partie de nos vies. Miller a créé la grille pour The HTML Review en 2023.
Discussion Service. Les utilisateurs de Discussion Service sont fascinés par l'exceptionnelle maîtrise et le savoir-faire de Grid World en matière de conception et de développement de sites web, ainsi que par son impact sur la perception. L'article explore la sous-structure de la grille par rapport à nos souvenirs et au monde, et s'accompagne de visuels en pixel art. Les commentaires soulignent le lien entre les neurosciences et les cellules de la grille, tout en soulevant des critiques sur la rationalisation et la couverture de la grille sur la nature. Un utilisateur trouve qu'il est difficile de perfectionner les aspects visuels de son projet personnel. Les utilisateurs discutent des grilles du Queens et de l'histoire qui les sous-tend. Un utilisateur de Discussion Service fait part de ses observations sur la conformité de la grille des rues de New York. Une décoration en forme de table génère des salles de réunion faiblement éclairées tout en évoluant dans le temps, construite avec du simple javascript sans aucune bibliothèque pour un exercice technique amusant.
OpenAI Tokenizer
Original. L'API OpenAI est une technologie qui nécessite l'activation de JavaScript.
Discussion Service. OpenAI a publié un nouveau tokenizer pour mieux comprendre les modèles GPT. Le tokenizer divise le texte en unités de sous-mots pour un traitement efficace, mais ils n'ont pas de signification inhérente. Les utilisateurs de Discussion Service discutent des limites de l'outil, telles que le regroupement basé sur les espaces et les traitements de capitalisation. Les codages créés à l'aide du codage par paires d'octets ne sont souvent pas adaptés aux langues sous-représentées. OpenAI facture par jeton en raison du fonctionnement du modèle basé sur les jetons.
Tabloid - Le langage de programmation des titres racoleurs
Original. Tabloid est un nouveau langage de programmation créé pour générer des titres ridicules et qui font mouche, comme ceux que l'on trouve dans les tabloïds. Le langage utilise une combinaison de traitement du langage naturel, d'apprentissage automatique et d'approvisionnement par la foule pour créer des titres avec des modèles linguistiques de type "clickbaity". Il s'agit d'un langage amusant et divertissant qui ne sert à rien, mais qui illustre parfaitement la manière dont la programmation peut être à la fois utile et amusante. Le créateur de Tabloid prévoit de l'utiliser pour créer une plateforme permettant à tout un chacun de créer ses propres titres racoleurs. Les utilisateurs de Discussion Service trouvent cet outil intéressant et utile pour comprendre le traitement du langage naturel.
Discussion Service. Un projet récent sur Hacker News intitulé Tabloid - The Clickbait Headline Programming Language (Tabloïde - Le langage de programmation des titres racoleurs). Le projet est fascinant, écrit par un auteur qui prétend avoir écrit d'autres langages qui sont sans doute plus utiles. Un utilisateur de Discussion Service a publié un programme en Tabloid qui prend cinq nombres et renvoie le produit des trois premiers nombres plus le produit des deux derniers. L'auteur est quelqu'un qui a livré de nombreux projets intéressants, et qui a même utilisé Oak pour construire une infrastructure logicielle personnelle, entre autres choses. Un autre utilisateur de Discussion Service a fait remarquer que le fait de tout écrire à partir de zéro est plus viable pour les développeurs solitaires, mais pas pour les équipes, où il est préférable d'opter pour la méthode "ennuyeuse".
GPT4 simulant un serveur FTP à ftp.disney.com
Original. Chat GPT-4 est capable de simuler un serveur FTP pour Disney, en utilisant l'outil ftp cli de base et les invites à venir pour exécuter les commandes comme le ferait un vrai utilisateur. Le serveur simulé comprend du contenu exclusif de Disney dans des dossiers tels que des films, des bandes sonores et des fonds d'écran, et GPT-4 s'avère capable de naviguer dans des systèmes de fichiers locaux et distants. La nouvelle technologie fonctionne bien, dépassant les attentes et démontrant sa capacité à créer des contenus attrayants pour les passionnés de Disney. L'article laisse entrevoir de futures utilisations de GPT-4 dans des plugins d'interprétation de code permettant d'accéder à de faux serveurs à partir de clients FTP.
Discussion Service. Un article sur Hacker News traite de la simulation par GPT4 d'un serveur FTP à ftp.disney.com. Les utilisateurs se demandent si cela peut être considéré comme une "hallucination", bien que l'IA puisse simuler ou "halluciner". La précision des réponses générées par l'IA et la perception de ces résultats comme des "hallucinations" sont également des points de discussion. Parmi les autres sujets abordés, citons : la possibilité que les films ou les émissions de télévision générés par l'IA soient sans valeur, le rôle de l'espace latent et du langage dans les MLD, l'impact de la technologie sur la société et les limites des capacités actuelles de l'IA. Certains utilisateurs mettent en garde contre une surinterprétation des capacités de l'IA et notent que ses limites sont souvent négligées.
Utilisation de mmap pour accélérer le chargement de LLaMA
Original. LLaMA utilise mmap() pour charger les modèles 100 fois plus vite, augmente la stabilité de la RAM et permet à plusieurs processus de s'exécuter simultanément. Les utilisateurs de Linux bénéficient d'une amélioration de 100x, tandis que Windows et MacOS bénéficient d'une amélioration de 10x. Le nouveau chargeur mmap() est maintenant disponible sur GitHub sous licence MIT. Le collaborateur anonyme @Slaren a ajouté le support mmap() à LLaMA-7B, permettant des temps de chargement instantanés sans changement de format de fichier. Le nouveau format de fichier aligne les tenseurs sur une frontière de 32 octets. L'article explore les améliorations potentielles en matière d'utilisation du disque et de perturbation des performances. Justine Tunney écrit sur Twitter et Github dans des utilitaires standard, destinés aux experts du domaine. L'article est clair et concis, sans parti pris ni déclarations politiques ou religieuses. Un utilisateur de Discussion Service commente que le billet de Tunney est une excellente ressource pour l'apprentissage.
Discussion Service. L'utilisation de mmap pour accélérer le chargement de LLaMA est l'objectif principal de l'article, malgré les problèmes d'attribution et les questions techniques dans la section des commentaires. Les avantages et les inconvénients de mmap sont discutés, ainsi que les mérites techniques de LLaMA.cpp de Facebook. Les utilisateurs discutent de l'utilité des changements apportés à LLaMA et des avantages et inconvénients de diverses fonctionnalités, fournissant ainsi des informations précieuses aux lecteurs avertis désireux d'en savoir plus sur l'IA et l'implémentation de modèles. L'article met en évidence une approche d'ingénierie des systèmes face à un problème et une tendance impliquant du code propriétaire dans les bibliothèques, générant une discussion sur l'utilisation de Huge Pages et la difficulté de résoudre les goulets d'étranglement IO. L'amélioration révolutionnaire des performances grâce à mmap a attiré l'attention des experts dans ce domaine.