London Underground Dot Matrix Typeface es un conjunto de fuentes que reproducen los tipos de letra utilizados en los paneles de llegadas y anuncios de la red de transporte subterráneo de Londres.
El tipo de letra incluye diferentes pesos y representa los tipos de letra utilizados en diferentes periodos de tiempo en la red de metro.
El tipo de letra se ha creado utilizando materiales de referencia, como fotografías y vídeos, y existe la posibilidad de que la gente contribuya añadiendo nuevos caracteres a los tipos de letra existentes.
Un diseñador ha recreado el tipo de letra Dot Matrix del metro de Londres y lo ha publicado en GitHub.
El tipo de letra es distintivo y reconocible, con las mayúsculas que se extienden por debajo de la línea de base.
Es probable que el tipo de letra fuera exclusivo del metro de Londres, pero puede haber similitudes con otros tipos de letra utilizados en otros sistemas de transporte.
El artículo trata de la búsqueda del significado y el origen de un misterioso símbolo llamado U+237C ⍼ &Angzarr;
El autor hizo una petición a la Biblioteca de Cambridge para obtener escaneados de documentos relacionados con el símbolo, pero le dijeron que excede la ley de derechos de autor y los límites de escaneado.
Los lectores están interesados en ayudar a financiar la solicitud digital y encontrar una manera de continuar la investigación.
Los trabajos de mierda son puestos inútiles e innecesarios que existen tanto en el sector público como en el privado, causando frustración entre los empleados y socavando el verdadero propósito de las organizaciones.
Muchos trabajadores se sienten atrapados en sus empleos sin sentido y luchan por encontrar un equilibrio entre la necesidad de un trabajo significativo y las exigencias de sus empleos BS, lo que provoca efectos negativos en su salud mental y autoestima.
El concepto de Renta Básica Universal (RBU) se considera una solución potencial para abordar el problema de los trabajos basura y la desigualdad de ingresos, capacitando a los individuos para elegir cómo emplear su tiempo y contribuir a la sociedad.
El libro "Bullshit Jobs" de David Graeber explora el concepto de trabajos que los propios empleados perciben como inútiles o innecesarios.
El libro plantea cuestiones sobre la naturaleza del trabajo, el impacto de la burocracia en las organizaciones y el significado y valor que las personas obtienen de sus empleos.
El concepto de trabajos basura ha suscitado debates sobre el futuro del trabajo y la necesidad de un empleo con sentido.
GB Studio es un creador de juegos de arrastrar y soltar muy fácil de usar que permite crear juegos retro para el sistema de videojuegos portátil GameBoy.
Está disponible para Windows, Mac y Linux, y puedes descargarlo de Itch.io.
El software no requiere conocimientos de programación y admite múltiples géneros de juego. También incluye un editor de música integrado y permite crear archivos ROM reales que pueden reproducirse en cualquier emulador de GameBoy.
GB Studio es un creador de juegos retro para la GameBoy que permite a los usuarios arrastrar y soltar para crear juegos.
Históricamente, la GameBoy ha requerido programación en ensamblador, pero GB Studio ofrece un motor de juego WYSIWYG para facilitar el desarrollo de juegos.
GB Studio exporta archivos ROM que pueden ejecutarse en emuladores, páginas web o hardware real de GameBoy.
El autor expresa su frustración por la aparición de nuevos lenguajes de consulta en la industria y argumenta que utilizar SQL como lenguaje de base común para bases de datos de propósito general es más práctico y eficiente.
El autor compara un nuevo lenguaje de consulta llamado FancyQL con SQL, destacando que SQL no es tan complejo como se suele presentar y que puede manejar con eficacia tareas relacionadas con los datos.
El autor hace hincapié en las ventajas de SQL, como su uso generalizado, el apoyo de los principales motores de bases de datos y la mejora continua a través de un comité de estándares. Afirman que no es necesario un lenguaje de consulta sofisticado cuando SQL ya es capaz de hacerlo.
Las consultas SQL pueden presentar inconvenientes cuando se trata de consultar bases de datos de distintos tipos y multiplicidad, lo que conduce a una salida redundante y a la falta de gestión de errores.
La compatibilidad con JSON en las bases de datos permite agregar los resultados de la subselección en una sola columna, lo que ofrece más flexibilidad en las consultas.
Lenguajes de consulta alternativos como EdgeQL y PRQL pretenden mejorar las limitaciones de SQL, pero éste sigue siendo una herramienta valiosa y muy utilizada en el sector.
En este artículo se analizan técnicas para acelerar el entrenamiento y la inferencia de los modelos de lenguaje de gran tamaño (LLM) para utilizar una ventana de contexto de hasta 100.000 tokens de entrada, que es significativamente mayor que la de los modelos anteriores.
Se explican las limitaciones de la arquitectura Transformer original cuando se trabaja con grandes longitudes de contexto, incluida la complejidad cuadrática en tiempo y espacio de los cálculos de la capa de atención.
Se presentan varias técnicas de optimización, como la incrustación posicional ALiBi, Sparse Attention, FlashAttention, Multi-Query attention, Conditional computation y el uso de GPUs A100 de 80 GB, que ayudan a aumentar la longitud de contexto y mejorar la eficiencia de los LLM.
El modelo 100k de Anthropics emplea técnicas inteligentes para ampliar la ventana de contexto, pero tiene algunas imperfecciones.
Colocar las instrucciones después del texto de referencia en la entrada puede ayudar al modelo a prestarles más atención.
La imposibilidad de almacenar en caché los transformadores hace que las ventanas de contexto grandes sean costosas, pero el proyecto RWKV-LM en GitHub ofrece una posible solución.
Claude de Anthropics supera a GPT4 en algunos casos y se sitúa entre GPT4 y Bard en general.
La posición del indicador en la entrada puede afectar a la "atención" del modelo y al sesgo de memoria.
Los transformadores se diseñaron para evitar problemas de posición, pero algunos casos muestran que el sesgo de recencia puede seguir presente.
Los LLM pueden tener dificultades para asignar el mismo nivel de atención a todas las partes de la entrada a lo largo de toda la ventana contextual.
Se considera que la Clave Antrópica está infravalorada, pero actualmente es difícil acceder a ella.
Los requisitos computacionales para tamaños de contexto grandes pueden ser significativos, pero pueden merecer la pena para aplicaciones específicas como la programación.
Entrenar LLM con ventanas de contexto grandes consume muchos recursos, pero comprimir y optimizar los modelos puede mejorar la eficiencia.
Los contextos grandes son necesarios para tareas como recordar hechos y comprender historias largas.
Se necesitan puntos de referencia centrados en tareas que requieren contextos de gran tamaño.
La compresión con pérdidas puede mejorar la calidad de los LLM en comparación con la compresión sin pérdidas.
Los métodos de codificación posicional, como las incrustaciones sinusoidales, pueden no ser adecuados para contextos de gran tamaño.
El conocimiento de la IA en general es esencial, pero reproducir o modificar los LLM de forma independiente requiere importantes recursos.
Se están llevando a cabo investigaciones para mejorar la escalabilidad de los LLM en términos de requisitos de cálculo y memoria.
El uso de codificaciones posicionales aprendidas permite un ajuste fino en contextos de mayor tamaño.
El artículo carece de explicaciones detalladas y hace afirmaciones vagas sobre la escalabilidad del contexto en los LLM.
Existe interés en explorar diferentes paradigmas y técnicas para abordar la complejidad computacional de los contextos de gran tamaño.
El blog GoPenAI, donde está alojado el artículo, no está afiliado a OpenAI a pesar de la similitud en el nombre del dominio.
Las investigaciones demuestran que se puede convencer a personas inocentes, mediante técnicas de interrogatorio adecuadas, de que han cometido un delito que en realidad nunca ocurrió.
Los falsos recuerdos de la comisión de delitos pueden generarse en tan solo unas horas mediante entornos de interrogatorio amistosos y la introducción de detalles erróneos.
La incorporación de detalles verdaderos en los relatos de sucesos falsos puede hacerlos parecer más verosímiles, llevando a los individuos a proporcionar descripciones ricas y detalladas de sucesos que nunca ocurrieron.
La técnica Reid utilizada por las fuerzas del orden puede dar lugar a confesiones falsas y condenas erróneas.
Las investigaciones psicológicas demuestran que pueden implantarse falsos recuerdos que lleven a las personas a creer falsamente que han cometido un delito.
El estudio plantea interrogantes sobre la fiabilidad de la memoria humana y sus implicaciones para el sistema de justicia penal.
¿Por qué Apple se niega a añadir el ajuste de ventanas a macOS?- En este artículo se analiza por qué Apple no ha añadido una función llamada "ajuste de ventanas" a su sistema operativo macOS.
El ajuste de ventanas es una función que permite a los usuarios organizar y redimensionar fácilmente las ventanas abiertas en la pantalla de su ordenador.
El artículo explora diferentes perspectivas sobre por qué Apple puede haber decidido no incluir esta función en macOS.
Los usuarios se preguntan por qué Apple no ha añadido una función de ajuste de ventanas a macOS, expresando su frustración con el comportamiento por defecto del botón verde en las ventanas de macOS.
El debate pone de relieve el interés y la demanda de una función de ajuste de ventanas en macOS, así como las diversas soluciones y opciones de personalización disponibles para los usuarios.
Muchos usuarios expresan su frustración por tener que utilizar aplicaciones de terceros para gestionar las ventanas de forma eficaz y recomiendan soluciones como Magnet, Rectangle y Amethyst para la gestión de ventanas.
La revisión del rendimiento de los servidores ARM64 de Hetzner muestra que funcionan muy bien, con la máquina CAX21 siendo sólo un 8% más lenta que la máquina CPX21 en velocidad de conversión WebP.
Hetzner ofrece el precio más bajo para servidores ARM64 en comparación con otros proveedores de servicios populares.
WebP Cloud Services ha migrado todos sus servicios a los servidores ARM64 de Hetzner debido a su impresionante rendimiento y rentabilidad.
El autor del artículo cometió un error al describir el procesador E3-1230 como un servidor de 8 núcleos cuando en realidad es un servidor de 4 núcleos con 8 hilos.
Algunos usuarios han experimentado dificultades con el uso de imágenes ARM en Docker, ya que a menudo están incompletas o retrasadas con respecto al ciclo de lanzamiento x86.
Los servidores ARM64 de Hetzner proporcionan una alternativa rentable a los servidores x86, con un rendimiento comparable y un importante ahorro de costes.
El sistema de archivos bcachefs, cuyo objetivo es ofrecer un alto rendimiento y fiabilidad, está cada vez más cerca de fusionarse con el núcleo principal de Linux.
El creador de bcachefs, Kent Overstreet, habló del estado del sistema de archivos, incluidas las recientes mejoras de escalabilidad y la implementación de funciones como las instantáneas y la codificación de borrado.
Overstreet ha publicado parches preliminares para su revisión y está trabajando en el proceso de fusión de bcachefs, incluyendo la resolución de problemas relacionados con el soporte de errores y la revisión del código.
Bcachefs, un nuevo sistema de archivos, está en proceso de integración en el núcleo de Linux.
Se ha expresado preocupación por el número de sistemas de archivos en el kernel y las dificultades para eliminarlos debido al estrecho acoplamiento entre los sistemas de archivos y otros subsistemas.
Bcachefs lleva más de 10 años en desarrollo y resulta prometedor, pero aún puede pasar algún tiempo antes de que se recomiende su uso generalizado.