Pular para o conteúdo principal

2023-04-06

Lembrando Bob Lee

A comunidade tecnológica está de luto pela perda de Bob Lee, uma figura bem conhecida na indústria. Lee foi um defensor de Java, tendo trabalhado no Google e Square, e era conhecido pelo seu trabalho no quadro da injecção de dependência de Guice. Foi também o co-fundador da Android Alliance, uma iniciativa que visava promover a inovação no ecossistema Android. As contribuições de Lee para o mundo da tecnologia foram amplamente reconhecidas, e os seus colegas e pares sentirão grande falta dele. Muitos partilharam as suas condolências sobre as redes sociais, recordando Lee como um mentor e amigo que sempre arranjou tempo para os outros. Descanse em paz, Bob Lee.

Discussion Service. Bob Lee, o co-autor das bibliotecas Guice e Java, conhecido pelas suas capacidades técnicas, gentileza e humildade, faleceu. A sua morte deixou a comunidade técnica em luto e levou muitas pessoas a partilhar as suas memórias e anedotas a seu respeito. O legado de inovação e paixão de Lee inspirou muitos, e as suas contribuições para a indústria farão falta. Enquanto alguns comentários digeriram, a maioria partilhou pensamentos e experiências positivas sobre Bob.

Bob Lee, antigo CTO da Square, morreu depois de ter sido esfaqueado em São Francisco

Original. Bob Lee, o criador da Cash App como Chief Technology Officer na Square, foi identificado como o homem que foi morto em São Francisco devido a um incidente de esfaqueamento; o evento chocou o mundo tecnológico, com as pessoas a reagirem às súbitas notícias. A polícia não efectuou quaisquer detenções ou divulgou quaisquer informações relativas a possíveis suspeitos. Lee tinha 43 anos de idade, foi o fundador da Cash App, e tinha estado a trabalhar como Chefe de Produto na MobileCoin na altura da sua morte.

Discussion Service. O antigo CTO da Square, Bob Lee, morto em São Francisco, desencadeia uma discussão sobre crime e governação. Os comentários abrangem a disparidade de riqueza, os sem-abrigo, a gentrificação, e potenciais soluções. A discussão suscita desafios sobre sistemas políticos e estatísticas de crime não fiáveis nas cidades dos EUA. Os utilizadores discutem causas potenciais do crime, incluindo migração em massa, desigualdade de riqueza, sistemas de justiça impactados e falta de resposta da polícia. A comparação do crime entre diferentes países ou culturas não é útil. A questão do crime é complexa e não é o resultado de qualquer factor isolado.

Diga ao iOS permite às operadoras adicionar redes WiFi que não pode parar de aderir

O sistema operativo iOS permite aos portadores acrescentar redes WiFi que os utilizadores não podem optar por não aderir. Esta característica está a causar preocupação entre os utilizadores de iPhone que têm planos de dados limitados ou preocupações de privacidade. A funcionalidade destina-se a ajudar as operadoras a lançar hotspots WiFi, mas também lhes permite adicionar redes WiFi públicas a que os utilizadores se ligam sem saberem, potencialmente recolhendo dados sensíveis. Os utilizadores têm opções limitadas para desactivar a funcionalidade, incluindo desactivar completamente o WiFi ou optar por "Esquecer esta rede" sempre que a encontrarem. Alguns utilizadores pedem à Apple que acrescente mais controlo sobre esta funcionalidade, enquanto outros sugerem a utilização de uma VPN para proteger os seus dados.

Discussion Service. O iOS 16.4 permite às operadoras adicionar redes geridas a dispositivos, reduzir os custos celulares, e impedir a desactivação da auto-inserção, sem nenhuma forma actual de remover estas redes, a não ser reiniciando as configurações da rede. Os utilizadores reportam que a T-Mobile rouba dados e que as redes Wingman em voo não se desligam, e que os transportadores ditam ligações WiFi sem recurso ao utilizador. Segue-se um debate sobre como obter um controlo completo do dispositivo, com alguns utilizadores a recomendarem GrapheneOS para actualizações de segurança. Os hotspots WiFi das transportadoras são criticados por interromperem as ligações a dispositivos locais, e alguns acham a funcionalidade útil em áreas com muita gente.

Fundamentos de Aprendizagem Profunda para a Difusão Estável

Original. "Practical Deep Learning for Coders - Part 2" é um curso que consiste em mais de 30 horas de conteúdo vídeo que inclui a cobertura do algoritmo de Difusão Estável a partir do zero, trabalhando em estreita colaboração com especialistas do Stable.ai e Hugging Face. O curso fornece uma cobertura rigorosa das técnicas mais recentes e vai além mesmo do que o Stable Diffusion inclui, tornando-o um grande objectivo de aprendizagem por muitas razões, no entanto, para tirar o máximo proveito deste curso, deverá ser um praticante de aprendizagem profunda razoavelmente confiante. Ao longo do curso, iremos explorar métodos de difusão, implementar os nossos próprios modelos a partir do zero, dominar conceitos de Python, e PyTorch para implementar os nossos modelos. Cobriremos fundamentos de difusão, optimizadores de aprendizagem profunda, conceitos Python, fundamentos básicos, geração de números pseudo-aleatórios, arquitecturas de redes neurais, arquitecturas generativas, transformadores, e treino misto de precisão.

Discussion Service. O 'Fundamentos de Aprendizagem Profunda para a Difusão Estável' explora a modelação generativa moderna enquanto alguns recomendam que se concentre no marketing. O curso Fast.ai de aprendizagem profunda cria um quadro de programação a partir do zero e é recomendado para qualquer pessoa interessada nele. Há um debate em torno dos perigos potenciais da IA avançada e da importância da regulamentação e das considerações éticas. Os comentadores sugerem a proibição da produção de IA, mas não é uma solução a longo prazo, a menos que todos os países o façam. O curso de FastAI não tem declarações política ou religiosamente tendenciosas, e o seu conteúdo é considerado de primeira linha. O curso é acessível a qualquer pessoa com conhecimentos básicos de matemática do ensino secundário e cobre conceitos avançados.

Injeção de CAN: Roubo de carro sem chave

Original. Os ladrões de carros estão a utilizar uma nova técnica chamada Injecção CAN para contornar sistemas de chave inteligente em carros modernos, explorando vulnerabilidades no protocolo de comunicação de autocarros CAN. Sistemas sofisticados de segurança automóvel, incluindo imobilizadores de motor, tornaram-se vulneráveis. Os ladrões usam um dispositivo chamado CAN Injector para roubar carros sem a chave, injectando mensagens falsas no sistema de comunicação interna do carro. O dispositivo custa $10 e contém um chip PIC18F, firmware pré-programado, um transceptor, e um circuito extra. Uma reparação rápida ou mensagens criptográficas pode derrotar o Injector CAN. Ian Haken descreve várias formas como os fabricantes de automóveis poderiam ajudar a proteger os carros, mas a exploração criminosa da técnica é generalizada. Trata-se de uma questão de âmbito industrial que requer uma actualização do software da ECU para derrotar os ladrões.

Discussion Service. Uma técnica de roubo de carros sem chave conhecida como CAN Injection foi destacada no Hacker News. Os consumidores devem desconfiar de encriptar ou assinar o CAN Bus, pois pode limitar as ferramentas de diagnóstico de terceiros, aumentando os custos de reparação. O CAN bus controla múltiplas funções do veículo, e os fabricantes de veículos optimizam implacavelmente os custos. Os fabricantes de automóveis têm requisitos legais para se separarem dos concessionários, mas alguns comentários criticam a sua aderência ao espírito da lei. As marcas de automóveis Premium utilizam várias medidas de segurança para impedir a pirataria de automóveis, incluindo imobilizadores com protocolos criptográficos adequados para autenticar mensagens de arranque e quadros CAN/FlexRay/Ethernet assinados para impedir a falsificação de mensagens. Os carros baratos são visados por serem fáceis de roubar, enquanto que os carros caros são alvo de roubo violento. A exploração descrita no artigo poderia ser aplicada a quase todos os veículos não ligados, fabricados na última década. A utilização de CAN bus em sistemas críticos como a aviação e o automóvel deve-se à sua simplicidade de cablagem e à sua relação custo-eficácia.

Os engenheiros do Firefox descobrem um bug do Windows Defender que causa uma elevada utilização de CPU

Original. N/A (Este texto não está relacionado com o tema).

Discussion Service. Os engenheiros do Firefox encontraram um bug do Windows Defender que causava a utilização de CPU no navegador do Mozilla. A Microsoft está a lançar um patch para corrigir isto. Outros produtos AV poderiam também causar problemas de utilização de CPU. O Firefox faz mais chamadas ao sistema do que o Chrome por razões de segurança. Uma comparação mostra que o Firefox tem um desempenho mais rápido que o Chrome em alguns testes. Especialistas discutem as limitações do Defender, sugerem o sandboxing e o hardware MFA. Os utilizadores debatem a eficácia do Defender versus software AV de terceiros. Alguns utilizadores relatam problemas com o Defender, causando lentidão no acesso ao sistema de ficheiros.

Segmento Qualquer modelo de qualquer coisa (SAM) pode "recortar" qualquer objecto numa imagem

Original. O Segment Anything Model (SAM) desenvolvido pela Meta AI pode isolar qualquer objecto numa imagem com alta precisão. Pode identificar e segmentar com sucesso objectos, mesmo quando estes estão parcialmente visíveis ou ocluídos. O SAM melhora os modelos previamente desenvolvidos que se baseiam em pistas de localização ou objectos salientes. Em vez de utilizar estas dicas, a SAM aplica a meta-aprendizagem, aproveitando a aprendizagem de um modelo existente, para ser capaz de detectar conjuntos de dados pequenos e tendenciosos ou objectos não visíveis. A SAM pode ser utilizada para aplicações práticas, como a edição de imagens, bem como a investigação no campo da visão por computador.

Discussion Service. O SAM da Meta AI permite a geração de máscaras em tempo real para "recortar" qualquer objecto a partir de uma imagem. O licenciamento do modelo e as suas impressionantes capacidades de inferência podem torná-lo popular entre os especialistas em tecnologia. As questões incluem velocidade mais lenta com o modelo RTX 2080ti 11GB e precisão limitada com objectos transparentes. Alguns vêem a estratégia de lançamento da Meta AI como parte de um impulso à adopção de AR. Os utilizadores elogiam a redução de custos de anotação de dados da SAM, mas criticam a sua velocidade e comparam-na com o iOS. O desenvolvimento pode também ter uma potencial aplicação de câmara de segurança e integração com AdobeAI.

O papel branco Bitcoin está escondido em cada cópia de macOS

Original. Uma cópia PDF do livro branco Bitcoin da Satoshi Nakamoto foi descoberta em todas as cópias modernas de macOS desde Mojave em 2018, e pode ser acedida através de um documento de amostra no utilitário Image Capture. O whitepaper é utilizado como um documento de amostra para um dispositivo chamado "Virtual Scanner II", que ou está escondido ou não está instalado para todos por defeito. Embora a razão da sua inclusão ainda não seja clara, pode ter sido um PDF de várias páginas conveniente e leve para fins de teste. Há muito pouca informação disponível online sobre o Virtual Scanner II ou a inclusão do whitepaper no MacOS.

Discussion Service. O papel branco Bitcoin está escondido em todas as cópias macOS desde 2019; especulações rodeiam o porquê da sua inclusão, e os utilizadores advertem contra a mineração em iPhones. A soma do hash corresponde à versão original, mas as teorias variam sobre o porquê da sua inclusão. Surgem queixas sobre o endosso de um esquema Ponzi, mas os utilizadores esclarecem que está escondido. A Apple pode tê-lo incluído por conveniência, mas o post desencadeia o diálogo sobre o impacto do Bitcoin. Os utilizadores comentam sobre a imagem utilizada num artigo, tamanho de ficheiro PDF, e tecnologia perdendo a sua diversão artística.

Antigo CTO quadrado Bob Lee Apunhalado até à Morte no Centro de São Francisco

Original. O antigo CTO quadrado Bob Lee foi esfaqueado até à morte no centro de São Francisco, de acordo com The Standard. Lee era o Chefe de Produto da MobileCoin, uma empresa de criptografia em São Francisco, e um amado membro das comunidades de desenvolvimento de software e tecnologia da Bay Area. A SFPD não divulgou quaisquer detalhes adicionais ou a identidade da vítima, e está a solicitar testemunhas oculares e filmagens de vídeo para a sua investigação. São Francisco sofreu 12 homicídios desde 2 de Abril, mais dois do que no mesmo período do ano passado. A Norma cobre histórias importantes, incluindo questões de justiça criminal em São Francisco, e fornece boletins informativos e uma visão abrangente da política e cultura de São Francisco.

Discussion Service. Ex-CTO quadrado Bob Lee apunhalado até à morte em São Francisco; os comentários referem-se a novos detalhes.

O caso da proibição de crianças das redes sociais

Original. O debate sobre a proibição de crianças dos meios de comunicação social está em curso devido a preocupações sobre dependência e negativismo. Alguns projectos de lei foram aprovados para restringir o acesso de menores a sítios de redes sociais e remover características viciantes, mas isto levanta implicações civis-libertistas e limita o acesso a notícias e perspectivas diferentes, colocando a questão de como as redes sociais devem ser tratadas. Embora os tribunais tenham derrubado as protecções em linha para a segurança das crianças, a criação de mensagens anti-adição e restrições legais apresentam potenciais conflitos com os direitos da Primeira Emenda, e os pais podem ter de recorrer à remoção física dos ecrãs. A protecção das crianças em linha é um debate político e cultural, deixando pouca confiança na capacidade do governo para regular as empresas de meios de comunicação social.

Discussion Service. Um artigo defende a proibição dos meios de comunicação social para menores de 18 anos devido a uma potencial toxicodependência; a regulamentação de tal conteúdo coloca dificuldades. Um debate sobre a definição e influência de anúncios dirigidos a crianças suscita preocupações sobre a regulamentação da publicidade. Os efeitos nocivos dos meios de comunicação social na saúde mental e no desenvolvimento pessoal são levantados, suscitando sugestões para proibir os meios de comunicação social empresariais e os alimentos algorítmicos. Uma proibição geral das redes sociais não é vista como a solução; são necessárias abordagens diferenciadas. Os utilizadores de Discussion Service discutem formas eficazes de limitar o tempo de rastreio e combater os efeitos negativos. O debate centra-se na procura de um equilíbrio entre a liberdade individual e a responsabilidade social. As preocupações sobre o controlo das redes sociais e a libertação de dopamina no cérebro suscitam discussões sobre os algoritmos de proibição das redes sociais. A viabilidade e a potencial intrusão na privacidade são destacadas como preocupações sobre a verificação obrigatória da identificação das contas dos meios de comunicação social. Não é discutida qualquer nova tecnologia ou grande divulgação.

O Dang vai ter 65,535 pontos de karma em breve

Original. Espera-se que o utilizador Discussion Service 'dang' atinja em breve 65.535 pontos de karma, que é o limite máximo devido à utilização pelo sistema de um inteiro de 16 bits assinado.

Discussion Service. Daniel Gackle, AKA Dang, prestes a atingir 65,535 karma. Secção de comentários repleta de elogios ao trabalho de Dang. Os utilizadores especulam se o karma vai rolar e discutem a mudança para 32-bit int. O estilo de moderação e o envolvimento do Y Combinator são questionados. Alcançar um karma elevado visto como uma forma de mostrar apreço pelo trabalho de Dang. Atingir marcos de carma mais elevados permite capacidades adicionais no Discussion Service, tais como o upvoting/downvoting.

Redes Neuronais: Zero a Herói

Original. O curso "Redes Neuronais: Zero para Herói" de Andrej Karpathy ensina a construir redes neuronais a partir do zero em código. O curso começa com as bases da retropropagação e avança para redes neurais profundas modernas como a GPT. O curso concentra-se em modelos linguísticos, uma vez que são um excelente local para aprender a aprender profundamente. Os pré-requisitos incluem programação sólida e matemática a nível de introdução. O curso inclui a construção de micrograduação, makemore, um MLP, e mergulho em alguns dos internos dos MLPs. Tornar-se um Backprop Ninja e construir a WaveNet são também abrangidos. O curso culmina com a construção de GPT. Os vídeos fornecem uma explicação passo a passo e concentram-se na competência e intuição de construção em torno de como as redes neurais são optimizadas. O curso recomenda aos telespectadores que vejam os vídeos anteriores para se sentirem confortáveis com a estrutura de modelagem da linguagem autoregressiva e os princípios básicos de tensores e PyTorch nn.

Discussion Service. Andrej Karpathy's 'Neural Networks': Curso "Zero para Herói" ganha mais de 300 pontos no Hacker News em 6 horas. Os utilizadores de Discussion Service elogiam o seu estilo de ensino e recomendam a sua codificação depois de verem os vídeos. O seu curso ML liderado por colegas recebe um feedback positivo apesar de não o mencionar. A sintaxe específica de Python nos vídeos pode desafiar alguns utilizadores. Uma discussão avalia a ênfase do curso na regressão logística e perceptron. Os participantes acharam o curso fácil de compreender e recomendam outros cursos para principiantes. Alguns utilizadores questionam os conhecimentos mínimos dos programadores web, e um utilizador tem uma teoria sobre a ligação entre o ML e a álgebra Hopf.

Um truque para alcançar o fluxo: Deixe o seu trabalho quebrado

Original. O artigo discute a dificuldade de entrar num estado de "fluxo" nas tarefas de engenharia e fornece um truque para reentrar no fluxo. O autor sugere deixar o seu trabalho num estado obviamente quebrado mas fácil de reparar antes de se afastar. Isto permite um ponto de partida claro quando se regressa ao trabalho, criando ímpeto e confiança. O artigo reconhece que esta abordagem pode não ser universal ou aplicável em cenários de equipa, mas convida ao feedback para outros truques. Há também uma breve menção à Engenharia Censitária e às oportunidades de emprego.

Discussion Service. Os utilizadores de Discussion Service partilham dicas para alcançar o estado de fluxo deixando o trabalho inacabado, incluindo o método "park facing downhill". Um director de engenharia implementou deixar o trabalho até às 18 horas para evitar o esgotamento, mas terminou-o devido ao presenteeísmo. Os utilizadores discutem os benefícios e os riscos de regras de tempo estritas e de mudança de cultura de trabalho. Alguns partilham dicas de produtividade, tais como escrever os próximos passos e praticar o TDD. Deixar o código num estado "quebrado" pode ajudar a retomá-lo mais tarde, mas tem resultados mistos.

A RAM é limpa antes de ser utilizada noutro contentor LXC?

Original. Um post no Information Security Stack Exchange pergunta se a RAM é limpa antes de ser utilizada noutro contentor LXC, conduzindo a uma discussão sobre a sobreprovisão da RAM no LXC, com um utilizador a comentar que a memória atribuída a um processo anterior num contentor é limpa. Um post no Hacker News aprofunda, discutindo bibliotecas partilhadas e protecções do espaço de nomes de utilizadores, e uma resposta esclarece que as páginas são apagadas antes da atribuição, o sobreprovisionamento não causa partilha, e a memória LXC é atribuída a processos através de espaços de nomes, mas os processos são separados dos recursos do anfitrião. Finalmente, nota-se que a gestão de memória baseada em glibc não envolve limpeza e as páginas livres podem conter dados.

Discussion Service. Os utilizadores no Hacker News discutiram a eficácia e necessidade da zeragem automática da memória no Linux, com algumas sugestões de métodos alternativos para limpar a memória não utilizada. Um utilizador salientou que o problema reside na concepção do garfo() do sistema UNIX, e muitos softwares de memória intensiva ainda se debatem com questões OOM. Outros comentários discutem as diferenças entre a alocação de memória com e sem excesso de compromisso no Linux e a importância de estabelecer limites. O artigo fornece perspectivas matizadas sobre a alocação de memória no Linux e está orientado para especialistas na matéria.

Perspectiva: WebAssembly-Powered BI de fonte aberta

Original. Perspective é um componente interactivo de análise e visualização de dados, concebido para streaming e grandes conjuntos de dados com relatórios configuráveis, dashboards e cadernos. Apresenta um motor de consulta de streaming eficiente de memória em C++ e Python e uma IU embalada como um Elemento Personalizado alimentado por WebAssembly ou WebSocket. A IU inclui dashboards interactivos que podem ser integrados em qualquer estrutura de aplicação Web. Perspective.js depende de WebAssembly e Apache Arrow para um desempenho semelhante ao do ambiente de trabalho no navegador. PerspectivePython implementa a Perspective API directamente em Python para investigação ou produção. Existem widgets virtualizados e escaláveis, e o projecto está disponível no GitHub com guias de utilizador e programador.

Discussion Service. Ferramenta de BI de código-fonte aberto, alimentada por WebAssembly Perspective elogiada por uma funcionalidade poderosa, apesar dos problemas de desempenho: as soluções sugeridas incluem a utilização de uma opção mais leve. Os fabricantes da Perspective trabalham para melhorar o desempenho e a compatibilidade móvel. Algumas preocupações levantadas sobre o suporte e acessibilidade do Firefox/não teclado de design amigável. Limitações do Sciter discutidas, bibliotecas Tauri vistas como potencialmente úteis. Melhorias de desempenho necessárias para o projecto Perspective.

Mundo Grid

Original. O "Grid World" de Alexander Miller explora o papel das grelhas na sua vida desde a infância até à idade adulta, incluindo o seu impacto na tecnologia, arte, e navegação. O artigo aborda o poder que as grelhas têm no mapeamento e controlo do espaço, como se vê em jogos como o Batalha Naval e o Xadrez. A grelha torna-se um núcleo central que liga as experiências pessoais de Miller, mostrando como ela se torna parte das nossas vidas. Miller criou a grelha para a The HTML Review em 2023.

Discussion Service. Os utilizadores de Discussion Service são fascinados pelo excepcional domínio e destreza do Grid World no design & desenvolvimento da web e o seu impacto na percepção. O artigo explora a subestrutura da grelha para as nossas memórias e para o mundo, com acompanhamento de imagens pixel artísticas. Os comentários notam a ligação à neurociência com as células da grelha ao mesmo tempo que levantam críticas sobre a racionalização e a manta da grelha sobre a natureza. Um utilizador tem dificuldade em aperfeiçoar os aspectos de design visual do seu projecto pessoal. Os utilizadores discutem os padrões de grelha das Rainhas e a história por detrás dos padrões da grelha. Um utilizador da Discussion Service compartilha as suas ideias sobre a conformidade da grelha de rua de NYC. Uma decoração em forma de mesa gera salas de confusão pouco iluminadas enquanto evoluem ao longo do tempo, construídas com javascript simples sem quaisquer bibliotecas para exercício técnico divertido.

Tokenizer OpenAI

Original. O OpenAI API é uma tecnologia que requer que o JavaScript esteja activado.

Discussion Service. O OpenAI lançou um novo tokenizer para melhor compreender os modelos GPT. O tokenizer divide o texto em unidades de sub-palavras para um processamento eficiente, mas falta-lhes um significado inerente. Os utilizadores de Discussion Service discutem as limitações da ferramenta, tais como o agrupamento baseado em espaços e tratamentos de capitalização. As codificações criadas utilizando a codificação por pares de bytes não são muitas vezes bem adaptadas a línguas subrepresentadas. O OpenAI cobra por ficha devido à operação baseada na ficha do modelo.

Tabloid - A Linguagem de Programação Clickbait Headline

Original. Tabloid é uma nova linguagem de programação criada para gerar manchetes ridículas e dignas de clique, parecidas com as vistas nos tablóides. A linguagem usa uma combinação de processamento de linguagem natural, aprendizagem de máquinas, e crowd-sourcing para criar manchetes com padrões linguísticos de clickbaity. É uma linguagem divertida e divertida que não serve nenhum objectivo real, mas é um excelente exemplo de como a programação pode ser útil e divertida. O criador do Tabloid planeia usá-la para criar uma plataforma que permita a qualquer pessoa criar as suas manchetes de clickbait. Os utilizadores de Discussion Service consideram esta ferramenta interessante e uma forma útil de compreender o processamento de linguagem natural.

Discussion Service. Um projecto recente no Hacker News chamado Tabloid - The Clickbait Headline Programming Language. O projecto é fascinante, escrito por um autor que afirma ter escrito outras línguas que são indiscutivelmente mais úteis. Um utilizador Discussion Service publicou um programa no Tabloid que leva cinco números e devolve o produto dos primeiros três números mais o produto dos dois últimos. O autor é alguém que enviou muitos projectos interessantes, mesmo usando Oak para construir um monte de infra-estruturas de software pessoal, entre outras coisas. Outro utilizador da Discussion Service comentou que escrever tudo do zero é mais viável para programadores solitários, mas não para equipas, onde é melhor ir com "aborrecido".

GPT4 que simula um servidor FTP em ftp.disney.com

Original. O Chat GPT-4 é hábil na simulação de um servidor FTP para a Disney, usando a ferramenta de base ftp cli e os próximos prompts para executar comandos como um utilizador real o faria. O servidor simulado inclui conteúdo exclusivo da Disney em pastas como filmes, bandas sonoras e wallpapers, e o GPT-4 prova ser capaz de navegar em sistemas de ficheiros locais e remotos. A nova tecnologia funciona bem, excedendo as expectativas e demonstrando a sua capacidade de criar conteúdos convincentes para os entusiastas da Disney. O artigo sugere utilizações futuras para o GPT-4 em plugins de intérpretes de código que permitem o acesso a servidores inventados a partir de clientes FTP.

Discussion Service. Um artigo no Hacker News discute o GPT4 que simula um servidor FTP em ftp.disney.com. Os utilizadores debatem se isto pode ou não ser considerado 'alucinante', apesar do seu potencial para a IA simular ou 'alucinar'. A precisão das respostas geradas pela IA e a percepção destes resultados como "alucinações" são também pontos de discussão. Outros tópicos discutidos incluem: o potencial para filmes ou programas de TV auto-gerados sem valor, o papel do espaço latente e da linguagem no LLM, o impacto da tecnologia na sociedade, e as limitações das capacidades actuais de IA. Alguns utilizadores advertem contra uma interpretação excessiva das capacidades da IA e notam que as suas limitações são frequentemente ignoradas.

Usando o mmap para tornar a carga LLaMA mais rápida

Original. LLaMA utiliza mmap() para carregar modelos 100x mais rapidamente, aumenta a estabilidade da RAM e permite a execução simultânea de múltiplos processos. Os utilizadores de Linux obtêm 100x de melhoria, enquanto o Windows e MacOS obtêm 10x. O novo carregador mmap() está agora disponível no GitHub sob licença MIT. O colaborador anónimo @Slaren adicionou suporte mmap() ao LLaMA-7B, permitindo tempos de carregamento instantâneos sem alteração do formato do ficheiro. O novo formato de ficheiro alinha os tensores numa fronteira de 32 bytes. O post explora potenciais melhorias na utilização do disco e interrupção do desempenho. Justine Tunney escreve sobre Twitter e Github em utilidades padrão, dirigido a especialistas na matéria. É claro e conciso, sem preconceitos ou declarações políticas ou religiosas. Um utilizador da Discussion Service comenta que o post de Tunney é um grande recurso para a aprendizagem.

Discussion Service. A utilização do mmap para tornar a carga LLaMA mais rápida é o foco principal do artigo, apesar do drama em torno da atribuição e das questões técnicas na secção de comentários. Os benefícios e desvantagens do mmap são discutidos, bem como os méritos técnicos do LLaMA.cpp do Facebook. Os utilizadores discutem a utilidade das mudanças do LLaMA e os prós e contras de várias características, proporcionando valiosos conhecimentos aos leitores com conhecimentos técnicos interessados em aprender mais sobre a IA e a implementação de modelos. O post destaca uma abordagem de engenharia de sistemas a um problema e uma tendência envolvendo código proprietário em bibliotecas, gerando discussão sobre a utilização de Huge Pages e a dificuldade de resolver estrangulamentos de IO. A melhoria revolucionária do desempenho utilizando o mmap chamou a atenção de especialistas na matéria.