WebVM es un entorno virtual de Linux sin servidor que se ejecuta completamente del lado del cliente utilizando HTML5 y WebAssembly, impulsado por el motor de virtualización CheerpX.
Permite la ejecución segura y aislada de binarios x86 en cualquier navegador, con un compilador JIT (Just-In-Time) de x86 a WebAssembly, un sistema de archivos virtual basado en bloques y un emulador de llamadas al sistema de Linux.
Nueva característica: Los usuarios ahora pueden crear imágenes personalizadas de WebVM utilizando Dockerfile, mejorando la flexibilidad y la personalización.
WebVM es un entorno virtual de Linux sin servidor que se ejecuta del lado del cliente, utilizando una compilación de CheerpX alojada por Leaning Technologies y que admite redes a través de Tailscale.
Al contrario de los emuladores de sistemas completos, WebVM actúa como un emulador de llamadas al sistema de Linux para binarios de espacio de usuario, ofreciendo mayor flexibilidad y velocidad.
El motor CheerpX no es de código abierto y está prohibido el autoalojamiento, lo que lo hace adecuado para la educación, la documentación en vivo, la preservación de software y el desarrollo de IDE web, aunque tiene limitaciones como problemas de rendimiento en dispositivos móviles y funcionalidad parcial sin conexión.
AT&T confirmó una violación de datos que afecta a casi 110 millones de clientes, involucrando números de teléfono, registros de llamadas y mensajes de texto, e información relacionada con la ubicación.
La violación, vinculada al proveedor de datos en la nube Snowflake, incluye metadatos pero no el contenido de llamadas o mensajes de texto.
La FBI y el DOJ retrasaron la notificación pública debido a preocupaciones de seguridad nacional, marcando el segundo incidente de seguridad de AT&T este año.
AT&T experimentó una violación de datos que afectó a casi todos los clientes, exponiendo metadatos de llamadas y mensajes de texto, pero no el contenido ni las marcas de tiempo.
A pesar de una caída inicial en las acciones, el mercado permanece en gran medida sin afectar, reflejando la creencia de que las empresas enfrentan consecuencias financieras mínimas por tales violaciones.
La incidencia, vinculada a la plataforma en la nube de Snowflake, ha generado llamados a políticas más estrictas de retención de datos, mejores prácticas de seguridad y posibles multas considerables o demandas para hacer cumplir la responsabilidad corporativa.
La Física basada en el Libro de Aprendizaje Profundo (v0.2) ofrece una introducción práctica al aprendizaje profundo en simulaciones físicas, con ejemplos prácticos en cuadernos Jupyter.
Novedades en la versión 0.2: Sección ampliada sobre la integración de la programación diferenciable (DP) en el entrenamiento de redes neuronales (NN) y un nuevo capítulo sobre métodos de aprendizaje mejorados para problemas de física.
Las futuras actualizaciones incluirán capítulos sobre el entrenamiento de redes para la predicción del flujo de fluidos, el uso de ecuaciones modelo como residuos, la interacción con simuladores para problemas inversos y el aprovechamiento de información de orden superior para mejorar las redes neuronales.
Se ha introducido un nuevo libro titulado 'Physics-Based Deep Learning', que se centra en aplicar el aprendizaje profundo a las simulaciones de física en lugar de los conceptos generales de aprendizaje profundo desde la perspectiva de un físico.
La obra incluye ejemplos de código prácticos en cuadernos de Jupyter, restricciones de pérdida física, simulaciones diferenciables, algoritmos de entrenamiento para problemas de física, aprendizaje por refuerzo y modelado de incertidumbre.
La producción del libro está a cargo del Grupo de Simulación Basada en Física y está disponible para su descarga en arXiv, con recursos adicionales y discusiones disponibles en varias plataformas como YouTube y GitHub.
Un desarrollador ha demostrado el uso de Amazon S3 como un registro de contenedores al exponer un bucket de S3 a través de HTTP y subir archivos de imágenes de contenedores a rutas específicas, permitiendo operaciones de docker pull.
La principal ventaja de usar S3 sobre registros de contenedores tradicionales como DockerHub o Amazon ECR es la velocidad de carga significativamente más rápida debido a las cargas fragmentadas en paralelo.
Este enfoque experimental carece de características como escaneos de seguridad automatizados y controles de acceso, pero podría llevar a alojar imágenes de contenedores públicos en R2 de Cloudflare con salida gratuita.
Se está discutiendo el uso de Amazon S3 como un registro de contenedores, destacando su potencial como una alternativa a los registros de contenedores tradicionales como DockerHub y AWS ECR.
La conversación critica la especificación de distribución de OCI (Open Container Initiative) por sus ineficiencias, como la necesidad de cargas secuenciales de capas y la falta de paginación estandarizada para listar etiquetas.
Docker tiene un impacto debatido en el desarrollo de software, con algunos elogiando su simplificación de la gestión de dependencias y otros criticándolo por no mejorar la fiabilidad del producto final ni la velocidad de desarrollo.
Los recientes despidos en el sector tecnológico indican que los empleados a menudo son vistos como desechables por los ejecutivos, incluso en empresas rentables.
Empresas como Microsoft continúan despidiendo empleados e implementando congelaciones salariales a pesar de superar las expectativas de los inversores y tener altos ingresos.
Wealthy executives, such as Tim Gurner, have made comments reinforcing the notion that employees are replaceable, regardless of their contributions or tenure.
Las empresas son entidades transaccionales y pueden despedir a los empleados cuando les conviene, enfatizando que los empleados no son indispensables.
El exceso de contrataciones y los despidos son a menudo estrategias para aumentar el valor para los accionistas, lo que resalta la importancia de que los empleados se centren en sus propios intereses y busquen una compensación justa.
Considerar los sindicatos y el código de fuente abierta puede ser beneficioso para los desarrolladores, reforzando la idea de que la relación empleador-empleado es fundamentalmente un trato comercial.
La repositorio contiene el código fuente para el firmware ARC y su cargador, dirigido a sistemas New World Power Macintosh que utilizan la arquitectura Gossamer, incluyendo modelos como iMac G3 y Power Macintosh G3.
La firmware de ARC admite varios controladores, pero actualmente solo es compatible con NT4, con un posible soporte futuro para NT 3.51.
Instalar implica descargar binarios, particionar el disco y seguir las indicaciones para configurar NT4, con problemas conocidos como inestabilidad y pasos específicos requeridos para el arranque dual con particiones de Mac.
Un desarrollador ha portado Windows NT para que funcione en Power Macintosh, despertando nostalgia y debates sobre historias alternativas de sistemas operativos.
Windows NT fue diseñado para ser portátil, compatible con varias arquitecturas como PowerPC, MIPS y Alpha, aunque era principalmente conocido por x86.
Este proyecto destaca la viabilidad técnica de adaptar NT a diferentes plataformas de hardware, mostrando la modularidad de su diseño.
CHARM (Cola Histona Acoplada para la Liberación de la Autoinhibición de la Metiltransferasa) es una nueva herramienta de silenciamiento génico desarrollada por el Instituto Broad y el Instituto Whitehead, que muestra potencial para tratar enfermedades priónicas y otras condiciones neurodegenerativas.
Esta herramienta utiliza la edición epigenética para silenciar genes causantes de enfermedades, incluido el gen de la proteína priónica, sin alterar el ADN subyacente, lo que potencialmente ofrece un tratamiento único.
La equipo de investigación, liderado por Sonia Vallabh y Jonathan Weissman, ha logrado avances significativos, creando un silenciador génico compacto, efectivo y de baja toxicidad, y ahora está refinando CHARM para ensayos clínicos.
Una herramienta de silenciamiento génico, administrada a través del Virus Adeno-Asociado (AAV), muestra potencial como terapia para las enfermedades priónicas, que actualmente son 100% fatales y resistentes a la destrucción.
Esta herramienta funciona silenciando el gen de la proteína priónica, lo que podría prevenir o revertir la enfermedad, y podría ser efectiva tanto contra priones genéticos como adquiridos.
Si bien es prometedor, los efectos a largo plazo de la herramienta en la memoria y la cognición aún están bajo investigación, con investigaciones en curso que exploran aplicaciones para otras enfermedades similares a los priones, como el Alzheimer y el Parkinson.
Tau es un nuevo marco diseñado para construir plataformas de computación en la nube de bajo mantenimiento y altamente escalables, sirviendo como una alternativa a servicios como Vercel, Netlify y AWS.
Las características clave incluyen una configuración mínima, cambios en la infraestructura nativos de Git, redes peer-to-peer y soporte para WebAssembly, con planes futuros para contenedores y máquinas virtuales.
Tau tiene como objetivo reducir los costos de infraestructura y el tiempo de desarrollo, proporcionando una plataforma amigable para los desarrolladores con herramientas para el desarrollo local y pruebas de extremo a extremo.
Tau es una alternativa de Plataforma como Servicio (PaaS) de código abierto y autoalojada a Vercel, Netlify y Cloudflare, que utiliza libp2p para el autodescubrimiento de redes e IPFS para el almacenamiento distribuido.
Es nativo de WebAssembly, ofreciendo beneficios como evitar el bloqueo del proveedor, pero los usuarios han notado que la documentación es vaga y el concepto no está claro.
Las comparaciones con Kubernetes y otras soluciones PaaS como Coolify y CapRover son comunes, lo que indica el potencial del proyecto pero destaca la necesidad de una mejor documentación y una comunicación más clara de sus características y beneficios.
Los investigadores han reproducido GPT-2 (1.6B) utilizando llm.c, una implementación en C/CUDA, en un solo nodo 8XH100 en 24 horas por $672, evitando las típicas pilas de aprendizaje profundo basadas en Python como PyTorch.
A pesar de algunos problemas de ajuste y estabilidad, el rendimiento del modelo es comparable al de GPT-2, evaluado utilizando métricas como la pérdida de validación y la precisión de HellaSwag.
La publicación también cubre la gestión de memoria, el entrenamiento multinodo y compara la implementación con una versión de PyTorch, con planes futuros para optimizar los hiperparámetros y mejorar la estabilidad del entrenamiento.
Andrej Karpathy reprodujo con éxito GPT-2 (1.6 mil millones de parámetros) en un solo nodo 8XH100 en 24 horas a un costo de $672.
Los avances en hardware de IA podrían potencialmente reducir los costos y disminuir los tiempos de entrenamiento en el futuro.
Si bien la IA en los videojuegos muestra promesas para mejorar los NPC y la narración, la tecnología actual aún enfrenta limitaciones significativas, particularmente en la generación de texto para la narrativa y el diálogo.
La Floppy8 es una microcomputadora y sistema de cartuchos integrado dentro de una unidad de disquete, capaz de reproducir películas y juegos en 4K con controladores inalámbricos y expulsión motorizada de cartuchos.
La tarea consistió en reutilizar una unidad de disco Amiga 1010, diseñar un nuevo formato de medios y realizar una extensa impresión 3D e ingeniería eléctrica para encajar todos los componentes dentro de la unidad.
El creador utilizó una computadora Latte Panda 3 Delta y cartuchos personalizados impresos en 3D, superando desafíos en las limitaciones de tamaño, mecanismos de expulsión y control de LED para completar el proyecto.
Floppy8 es una diminuta computadora integrada en una unidad de disquete de 3.5", que recuerda a proyectos de computación compacta del pasado como el clon Amiga 1200 y Ross SPARCPlug.
El creador, abeisgreat, compartió un video detallando el proyecto, incluyendo cartuchos basados en tarjetas SD y otros aspectos técnicos, despertando interés y admiración en la comunidad tecnológica.
Las discusiones destacan la nostalgia y la innovación en la adaptación de computadoras a factores de forma pequeños, con referencias a intentos históricos y proyectos modernos de bricolaje.
AuraFlow v0.1 es un modelo de generación de texto a imagen basado en flujo y de código abierto, que demuestra la resiliencia de la comunidad de IA de código abierto.
La modelo sobresale en generar imágenes detalladas a partir de descripciones de texto e incorpora técnicas avanzadas como la transferencia de tasa de aprendizaje sin ejemplos y la re-descripción.
Con 6.8 mil millones de parámetros, AuraFlow fue entrenado durante cuatro semanas, logrando altas puntuaciones en GenEval, y los planes futuros incluyen un mayor entrenamiento y el desarrollo de modelos eficientes para GPUs de consumo.
AuraFlow v0.1 es una alternativa de código abierto a Stable Diffusion 3, mostrando potencial a pesar de ser una versión temprana.
La modelo se desempeña bien con indicaciones simples, pero tiene dificultades con las complejas y las negaciones, lo que indica áreas de mejora.
Las discusiones destacan las limitaciones del modelo para generar cuerpos humanos realistas y manejar indicaciones de texto matizadas, reflejando los desafíos continuos en la generación de imágenes por IA.
La publicación discute el uso de la especulación de valores para mejorar el rendimiento de la CPU aprovechando el predictor de ramas para adivinar valores y reducir las dependencias de datos en bucles cerrados.
Al especular la dirección del siguiente nodo en una función de suma de lista enlazada, la técnica tiene como objetivo evitar los retrasos de lectura de la caché L1, lo que resulta en mejoras significativas en el rendimiento.
A pesar de que los compiladores a menudo optimizan este truco, el uso de ensamblado en línea asegura que la especulación permanezca, lo que lleva a un aumento del 50-200% en la velocidad de la función cuando los datos caben dentro de las cachés de la CPU.
La artículo 'Venciendo la caché L1 con especulación de valores' (2021) de mazzo.li explora la optimización del diseño de memoria en listas enlazadas mediante la especulación de valores, enfatizando la importancia del diseño lineal de memoria de los nodos.
Los comentaristas debaten la practicidad y efectividad de este método, algunos apreciando su ingenio pero cuestionando su aplicabilidad general.
Las discusiones también abarcan detalles técnicos relacionados como la ejecución de instrucciones, modelos de memoria, posibles casos de uso y la posibilidad de que los compiladores automaticen dichas optimizaciones.
Las ventas de Apple Vision Pro en EE. UU. están disminuyendo drásticamente, con una caída proyectada del 75% para finales de agosto de 2024, ya que la mayoría de los compradores interesados ya han adquirido el auricular de $3,500.
La modelo actual no ha alcanzado las 100,000 unidades vendidas, lo que ha llevado a Apple a reducir sus expectativas de ventas y considerar un modelo más económico, que se rumorea costará alrededor de $1,750, para 2025.
Apple también está desarrollando una actualización de visionOS para mejorar la experiencia del usuario, lo que podría ayudar a mantener el interés hasta el lanzamiento del auricular más asequible.
Las ventas de Apple Vision Pro en EE. UU. están rindiendo por debajo de lo esperado debido al limitado interés de los usuarios y al apoyo de los desarrolladores.
La alta precio de $3500 y el contenido restringido son obstáculos significativos, disuadiendo tanto a los consumidores como a los desarrolladores.
Los analistas sugieren que Apple podría necesitar reconsiderar su estrategia, potencialmente creando una versión más asequible o mejorando su ecosistema de software para ampliar su atractivo.
Se alega que Intel está vendiendo CPUs defectuosos de 13ª y 14ª generación, lo que lleva a bloqueos, pantallas azules de la muerte (BSOD) y otros errores, con algunos informes que indican que los problemas empeoran con el tiempo.
Fuentes confiables como RadGames y Level1Techs han confirmado estos problemas de inestabilidad, que pueden estar relacionados con las estrategias agresivas de gestión de energía y térmica de Intel.
Debido a estos problemas persistentes, muchos usuarios están contemplando cambiarse a AMD como una alternativa.
GE Aerospace ha desarrollado y probado con éxito un nuevo ramjet de doble modo hipersónico en menos de 11 meses, demostrando un aumento del triple en el flujo de aire en comparación con las tecnologías anteriores.
Este logro subraya el compromiso de GE Aerospace con el avance de la tecnología hipersónica, con la siguiente fase centrada en pruebas adicionales y demostraciones tecnológicas.
El proyecto fue un esfuerzo colaborativo entre GE Aerospace, Innoveering y el Centro de Investigación de GE Aerospace, destacando el rápido progreso y la dedicación del equipo.
GE Aerospace, en colaboración con Innoveering y su Centro de Investigación, ha desarrollado y probado un nuevo ramjet de doble modo hipersónico en menos de 11 meses.
La tecnología, probablemente basada en un diseño existente, está destinada a misiles o aviones de alta velocidad, no a la aviación comercial, debido a las velocidades extremas y las condiciones.
Este proyecto subraya avances significativos en la propulsión hipersónica, que son vitales para aplicaciones militares.