O tipo de letra London Underground Dot Matrix Typeface é um conjunto de tipos de letra que reproduzem os tipos de letra utilizados nos painéis de chegada e nos painéis de anúncios do sistema de transportes do metropolitano de Londres.
O tipo de letra inclui diferentes pesos e representa os tipos de letra utilizados em diferentes períodos de tempo na rede do metropolitano.
O tipo de letra é criado com recurso a materiais de referência, como fotografias e vídeos, e as pessoas têm a oportunidade de contribuir acrescentando novos caracteres aos tipos de letra existentes.
O tipo de letra Dot Matrix do metro de Londres foi recriado por um designer e disponibilizado no GitHub.
O tipo de letra é distinto e reconhecível, com as letras maiúsculas a estenderem-se abaixo da linha de base.
É provável que o tipo de letra seja exclusivo do metro de Londres, mas pode haver semelhanças com tipos de letra utilizados noutros sistemas de trânsito.
O artigo aborda a procura do significado e da origem de um símbolo misterioso chamado U+237C ⍼ &Angzarr;
O autor fez um pedido à Biblioteca de Cambridge para obter digitalizações de documentos relacionados com o símbolo, mas foi-lhe dito que excedia a lei dos direitos de autor e os limites de digitalização.
Os leitores estão interessados em ajudar a financiar o pedido digital e a encontrar uma forma de continuar a investigação.
Os empregos da treta são cargos inúteis e desnecessários que existem tanto no sector público como no privado, causando frustração entre os trabalhadores e minando o verdadeiro objetivo das organizações.
Muitos trabalhadores sentem-se presos nos seus empregos sem sentido e lutam para encontrar um equilíbrio entre a necessidade de um trabalho significativo e as exigências dos seus empregos de treta, o que tem efeitos negativos na sua saúde mental e autoestima.
O conceito de Rendimento Básico Universal (RBI) é visto como uma solução potencial para resolver o problema dos empregos sem sentido e da desigualdade de rendimentos, dando aos indivíduos a possibilidade de escolherem a forma como gastam o seu tempo e contribuem para a sociedade.
O livro "Bullshit Jobs" de David Graeber explora o conceito de empregos que são considerados inúteis ou desnecessários pelos próprios trabalhadores.
O livro levanta questões sobre a natureza do trabalho, o impacto da burocracia nas organizações e o significado e valor que as pessoas retiram dos seus empregos.
O conceito de "bullshit jobs" suscitou debates sobre o futuro do trabalho e a necessidade de um emprego com significado.
O GB Studio é um criador de jogos de arrastar e largar de fácil utilização que permite criar jogos retro para o sistema de videojogos portátil GameBoy.
Está disponível para Windows, Mac e Linux, e pode ser descarregado a partir de Itch.io.
O software não requer quaisquer conhecimentos de programação e suporta vários géneros de jogos. Inclui também um editor de música integrado e permite criar ficheiros ROM reais que podem ser reproduzidos em qualquer emulador GameBoy.
GB Studio é um criador de jogos retro para o GameBoy que permite aos utilizadores arrastar e largar para criar jogos.
Historicamente, o GameBoy tem exigido programação em assembly, mas o GB Studio fornece um motor de jogo WYSIWYG para facilitar o desenvolvimento de jogos.
O GB Studio exporta ficheiros ROM que podem ser executados em emuladores, páginas Web ou hardware GameBoy real.
O autor expressa a sua frustração com o aparecimento de novas linguagens de consulta na indústria e argumenta que a utilização da SQL como linguagem de base comum para bases de dados de uso geral é mais prática e eficiente.
O autor compara uma nova linguagem de consulta denominada FancyQL com a SQL, salientando que a SQL não é tão complexa como é frequentemente apresentada e pode tratar eficazmente tarefas relacionadas com dados.
O autor salienta as vantagens da SQL, como a sua utilização generalizada, o apoio dos principais motores de bases de dados e a melhoria contínua através de um comité de normas. Afirmam que não há necessidade de uma linguagem de consulta sofisticada quando a SQL já é capaz.
As consultas SQL podem ter inconvenientes quando se trata de consultar bases de dados com diferentes tipos e multiplicidade, conduzindo a resultados redundantes e à falta de tratamento de erros.
O suporte JSON nas bases de dados permite agregar resultados de subselecção numa única coluna, proporcionando maior flexibilidade na consulta.
Linguagens de consulta alternativas, como EdgeQL e PRQL, visam melhorar as limitações da SQL, mas esta continua a ser uma ferramenta valiosa e muito utilizada na indústria.
O post discute técnicas para acelerar o treinamento e a inferência de Modelos de Linguagem Grande (LLMs) para usar uma janela de contexto de até 100 mil tokens de entrada, que é significativamente maior do que os modelos anteriores.
São explicadas as limitações da arquitetura original do Transformer quando se trabalha com grandes comprimentos de contexto, incluindo o tempo quadrático e a complexidade espacial dos cálculos da camada de atenção.
São apresentadas várias técnicas de otimização, incluindo a incorporação posicional ALiBi, a atenção esparsa, a atenção FlashAttention, a atenção Multi-Query, a computação condicional e a utilização de GPUs A100 de 80 GB, que ajudam a aumentar o comprimento do contexto e a melhorar a eficiência dos LLMs.
O modelo de 100k da Anthropics utiliza técnicas inteligentes para alargar a janela de contexto, mas tem algumas imperfeições.
A colocação de instruções após o texto de referência na entrada pode ajudar o modelo a prestar-lhes mais atenção.
A incapacidade de armazenar transformadores em cache torna as janelas de contexto grandes dispendiosas, mas o projeto RWKV-LM no GitHub oferece uma solução potencial.
O Claude do Anthropics supera o GPT4 nalguns casos e classifica-se entre o GPT4 e o Bard no geral.
A posição do prompt na entrada pode afetar a "atenção" do modelo e o viés de recência.
Os transformadores foram concebidos para evitar problemas de posição, mas alguns casos mostram que o enviesamento de recência pode ainda estar presente.
Os LLM podem ter dificuldade em atribuir o mesmo nível de atenção a todas as partes da entrada ao longo de toda a janela de contexto.
A Claude da Anthropics é considerada pouco apreciada, mas o acesso a ela é atualmente difícil.
Os requisitos computacionais para contextos de grandes dimensões podem ser significativos, mas podem valer a pena para aplicações específicas como a programação.
O treino de LLMs com janelas de contexto grandes consome muitos recursos, mas a compressão e otimização dos modelos pode melhorar a eficiência.
Os tamanhos de contexto grandes são necessários para tarefas como recordar factos e compreender histórias longas.
São necessários parâmetros de referência que se concentrem em tarefas que exijam grandes tamanhos de contexto.
A compressão com perdas pode resultar numa melhor qualidade em comparação com a compressão sem perdas quando se trata de LLMs.
Os métodos de codificação posicional, como as incorporações sinusoidais, podem não ser adequados para contextos de grandes dimensões.
O conhecimento da IA em geral é essencial, mas reproduzir ou modificar LLMs de forma independente requer recursos significativos.
Está em curso investigação para melhorar a escalabilidade das LLMs em termos de requisitos de computação e de memória.
A utilização de codificações posicionais aprendidas permite um ajuste fino em contextos de maior dimensão.
O artigo carece de explicações pormenorizadas e faz afirmações vagas sobre o escalonamento do contexto nas LLM.
Há interesse em explorar diferentes paradigmas e técnicas para lidar com a complexidade computacional de contextos de grandes dimensões.
O blogue GoPenAI, onde o artigo está alojado, não é afiliado à OpenAI, apesar da semelhança no nome de domínio.
A investigação mostra que indivíduos inocentes podem ser convencidos, através de técnicas de interrogatório adequadas, de que cometeram um crime que nunca aconteceu de facto.
As falsas memórias de crimes cometidos podem ser geradas em apenas algumas horas através de ambientes de entrevista amigáveis e da introdução de pormenores errados.
A incorporação de pormenores verdadeiros em histórias de acontecimentos falsos pode fazê-las parecer mais plausíveis, levando os indivíduos a fornecer descrições ricas e detalhadas de acontecimentos que nunca ocorreram.
A técnica Reid utilizada pelas autoridades policiais pode levar a falsas confissões e condenações injustas.
A investigação psicológica mostra que podem ser implantadas falsas memórias, levando as pessoas a acreditar falsamente que cometeram um crime.
O estudo levanta questões sobre a fiabilidade da memória humana e as suas implicações para o sistema de justiça penal.
Por que a Apple se recusa a adicionar o encaixe de janelas ao macOS?- O post discute por que a Apple não adicionou um recurso chamado "window snapping" ao seu sistema operacional macOS.
O encaixe de janelas é uma funcionalidade que permite aos utilizadores organizar e redimensionar facilmente as janelas abertas no ecrã do computador.
A publicação explora diferentes perspectivas sobre o motivo pelo qual a Apple poderá ter optado por não incluir esta funcionalidade no macOS.
Os utilizadores questionam a razão pela qual a Apple não adicionou uma funcionalidade de encaixe de janelas ao macOS, expressando a sua frustração com o comportamento predefinido do botão verde nas janelas do macOS.
A discussão destaca o interesse e a procura de uma funcionalidade de encaixe de janelas no macOS, bem como as várias soluções alternativas e opções de personalização disponíveis para os utilizadores.
Muitos utilizadores expressam a sua frustração por terem de utilizar aplicações de terceiros para gerir as janelas de forma eficaz e recomendam soluções como Magnet, Rectangle e Amethyst para a gestão de janelas.
A análise do desempenho dos servidores ARM64 da Hetzner mostra que têm um desempenho muito bom, com a máquina CAX21 a ser apenas 8% mais lenta do que a máquina CPX21 na velocidade de conversão WebP.
A Hetzner oferece o preço mais baixo para servidores ARM64 em comparação com outros fornecedores de serviços populares.
A WebP Cloud Services migrou todos os seus serviços para os servidores ARM64 da Hetzner devido ao seu desempenho impressionante e à sua relação custo-eficácia.
O autor do artigo cometeu um erro ao descrever o processador E3-1230 como um servidor de 8 núcleos, quando na realidade é um servidor de 4 núcleos com 8 threads.
Alguns utilizadores tiveram dificuldades em utilizar imagens ARM no Docker, uma vez que estas estão frequentemente incompletas ou atrasadas em relação ao ciclo de lançamento do x86.
Os servidores ARM64 da Hetzner fornecem uma alternativa económica aos servidores x86, com desempenho comparável e poupanças de custos significativas.
O sistema de ficheiros bcachefs, destinado a fornecer alto desempenho e fiabilidade, está a aproximar-se da fusão com o kernel Linux principal.
O criador do bcachefs, Kent Overstreet, discutiu o status do sistema de arquivos, incluindo melhorias recentes de escalabilidade e a implementação de recursos como snapshots e erasure coding.
Overstreet postou patches preliminares para revisão e está trabalhando no processo de ter o bcachefs fundido, incluindo preocupações sobre suporte a bugs e revisão de código.
Bcachefs, um novo sistema de ficheiros, está em processo de ser integrado no kernel do Linux.
Foram levantadas preocupações sobre o número de sistemas de ficheiros no kernel e as dificuldades em removê-los devido à estreita ligação entre os sistemas de ficheiros e outros subsistemas.
O Bcachefs está em desenvolvimento há mais de 10 anos e mostra-se promissor, mas ainda pode levar algum tempo até que seja recomendado para uso generalizado.