A proposta de "Controle de Chat" da Comissão da UE visa implementar vigilância em massa, potencialmente comprometendo a privacidade e a segurança dos dados dos cidadãos.
Se aprovada, exigiria que os provedores de serviços escaneassem mensagens em busca de material de abuso sexual infantil (CSAM), mas os críticos argumentam que é ineficaz contra criminosos e prejudicial à democracia.
Threema, um serviço de comunicação segura, se opõe à proposta e pode deixar a UE para evitar a conformidade, destacando o potencial uso indevido e a oposição de defensores da privacidade.
Implementar um sistema global para regular a privacidade na internet enfrentaria uma resistência substancial de defensores da privacidade e empresas de tecnologia.
Impor tal sistema globalmente é quase impossível devido aos diferentes níveis de compromisso com a privacidade e a liberdade na internet em diversos países.
Rascunho do Regulamento de Controle de Chat da Comissão da UE visa combater a violência sexual infantil, mas levanta preocupações significativas sobre direitos fundamentais.
Questões-chave destacadas incluem violações de privacidade, efeitos inibidores na liberdade de expressão, obrigações de filtragem propensas a erros, bloqueio de sites e verificação obrigatória de idade.
As GFF argumenta que essas medidas violam a Carta dos Direitos Fundamentais da UE e pede uma reconsideração do projeto de regulamento.
Assembleia Europeia está debatendo uma legislação de 'Controle de Chat' que pode infringir direitos fundamentais, exigindo que os usuários optem por enviar imagens e vídeos.
Críticos argumentam que a proposta contradiz os princípios do GDPR da UE e pode levar a um consentimento coagido, levantando preocupações sobre privacidade e abuso de poder por parte do governo.
A legislação pode em breve ser aprovada pelo Conselho Europeu, despertando temores de vigilância em massa e questionando o compromisso da UE com a proteção dos direitos individuais.
A votação do Conselho da UE sobre o Controle de Chat, que envolve buscas em massa de comunicações privadas, está marcada para 20 de junho de 2024.
Os horários da votação, logo após as Eleições Europeias, são vistos como uma tentativa de evitar o escrutínio público.
Cidadãos são instados a agir imediatamente, contatando seus governos, aumentando a conscientização online e organizando protestos, pois o rascunho atual é considerado inaceitável.
A UE está prestes a aprovar o 'Chat Control', uma regulamentação que exige a verificação de todas as mensagens diretas em plataformas como Reddit, Twitter, Discord e Steam em busca de CSAM (material de abuso sexual infantil).
Críticos argumentam que a medida é sem precedentes e provavelmente ineficaz, pois os infratores podem migrar para serviços privados, além de levantar preocupações significativas sobre privacidade e excesso de autoridade.
Signal Foundation anunciou que sairia da UE se a regulamentação fosse aplicada, destacando a natureza controversa da proposta.
htmx 2.0.0 foi lançado, encerrando o suporte para o Internet Explorer e ajustando alguns padrões sem alterar a funcionalidade principal ou a API.
Principais mudanças incluem mover extensões para um novo repositório, remover atributos obsoletos e modificar o tratamento de solicitações HTTP DELETE.
A versão não será marcada como a mais recente no NPM até 1º de janeiro de 2025, para evitar forçar atualizações; a versão 1.x permanecerá como a mais recente até lá.
Htmx 2.0.0 foi lançado, apresentando limpezas e a descontinuação do suporte para o Internet Explorer (IE), em vez de grandes novos recursos.
Desenvolvedores estão elogiando o htmx por simplificar o desenvolvimento web, com um usuário substituindo 500 linhas de JavaScript (JS) por alguns atributos htmx, aumentando a eficiência e o prazer.
Os lançamentos geraram discussões sobre possíveis melhorias e comparações com outras ferramentas, destacando o papel do htmx na redução da dependência de frameworks JS complexos.
Scarecrow é uma ferramenta de cibersegurança atualmente em sua fase alfa, projetada para rodar em segundo plano no seu computador para deter vírus e malware.
Ciber Espantalho é uma ferramenta que cria processos falsos e entradas de registro para enganar malware, fazendo-o pensar que está sendo analisado, impedindo assim sua execução.
Os usuários expressaram preocupações sobre a transparência da ferramenta, incluindo a ausência de uma página "sobre nós", um link para o GitHub e um certificado de assinatura de código.
A autora reconheceu esses problemas, citando o alto custo dos certificados, e há sugestões para tornar a ferramenta de código aberto para construir confiança e validar sua eficácia por meio de testes no mundo real.
Fandom, um popular site de wiki, é criticado por anúncios intrusivos, incluindo vídeos que reproduzem automaticamente e interrupções constantes, priorizando o lucro em detrimento da experiência do usuário.
In 2023, a Fandom substituiu controversamente o conteúdo dos usuários por anúncios do Grimace Shake do McDonald's, levando a uma migração em massa de wikis para domínios independentes como Runescape, Minecraft e Hollow Knight.
Os usuários são incentivados a apoiar wikis independentes utilizando ferramentas como Indie Wiki Buddy, empregando bloqueadores de anúncios e migrando seus wikis do Fandom.
Comunidades estão migrando suas wikis do Fandom para plataformas autônomas ou alternativas devido a anúncios intrusivos e conteúdo desatualizado.
Exemplos notáveis incluem as wikis de Runescape e Minecraft, que conseguiram se desvincular do Fandom.
Ferramentas como Indie Wiki Buddy e LibRedirect ajudam os usuários a evitar o Fandom, redirecionando-os para fontes mais amigáveis, destacando os efeitos adversos do capital de risco em plataformas de conteúdo geradas pelos usuários.
Os trabalhos de Ryan sobre o GPT-4o alcançando 50% no conjunto de avaliação pública Arc-AGI são considerados inovadores e interessantes no campo da pesquisa de 'raciocínio de LLM'.
A abordagem envolve gerar cerca de 8.000 programas em Python para implementar transformações, selecionar o correto e aplicá-lo a entradas de teste, demonstrando uma combinação de aprendizado profundo (DL) e síntese de programas.
Embora o resultado seja promissor, ele é baseado no conjunto de avaliação pública, e resultados semelhantes no conjunto privado ainda não foram validados, indicando a necessidade de uma análise e verificação adicionais.
DeepComputing introduziu uma nova Placa-Mãe RISC-V para o Framework Laptop 13, com um processador JH7110 da StarFive com quatro núcleos U74 RISC-V da SiFive.
Esse desenvolvimento aprimora o ecossistema do Framework ao permitir que os usuários selecionem diferentes arquiteturas de processador, promovendo flexibilidade e personalização.
A Mainboard, voltada para desenvolvedores e entusiastas, será demonstrada no RISC-V Summit Europe e conta com colaborações da Canonical e Red Hat para uma robusta compatibilidade com Linux.
DeepComputing lançou uma nova placa-mãe RISC-V para laptops Framework, com o processador JH7110 e armazenamento microSD, assemelhando-se a um Computador de Placa Única (SBC) RISC-V no formato Framework.
A placa-mãe é voltada para desenvolvedores e entusiastas, oferecendo modularidade e a possibilidade de alternar entre placas x86 e RISC-V, embora apresente uma queda de desempenho notável em comparação com x86.
Esta colaboração entre Framework e DeepComputing é vista como uma medida para diversificar e expandir o ecossistema da Framework, aumentando a visibilidade da tecnologia RISC-V.
Sam Altman, ex-presidente e CEO da Y Combinator, afirma ser o presidente do conselho em documentos de SPAC (Empresa de Aquisição de Propósito Específico).
Y Combinator nega a alegação de Altman, afirmando que ele nunca esteve em seu conselho, apesar de seu papel significativo na empresa.
Sam Altman, ex-CEO e Presidente da Y Combinator (YC), foi listado incorretamente como presidente da YC em vários documentos oficiais, incluindo registros na SEC e um site de SPAC.
A declaração incorreta gerou debate, com alguns argumentando que é um erro administrativo menor, enquanto outros enfatizam as implicações legais das imprecisões nas declarações à SEC.
Críticos destacam que tais erros, se intencionais, podem ser vistos como enganosos e minar a confiança, embora provar a intenção e o dano material seja complexo.
Pesquisadores da Universidade Estadual do Arizona sugerem que os humanos começaram a acumular rapidamente conhecimento tecnológico por meio do aprendizado social há cerca de 600.000 anos, marcando a origem da cultura cumulativa.
As técnicas de fabricação de ferramentas de pedra ao longo de 3,3 milhões de anos foram analisadas no estudo publicado nos Anais da Academia Nacional de Ciências, observando um aumento significativo na complexidade por volta de 600.000 anos atrás.
Esse período, provavelmente no Pleistoceno Médio, também viu avanços como o uso controlado do fogo e a construção de estruturas de madeira, indicando que a cultura cumulativa antecede a divergência entre os Neandertais e os humanos modernos.
Os humanos começaram a acumular conhecimento tecnológico há cerca de 600.000 anos, com várias espécies de Homo possivelmente compartilhando e trocando tecnologia.
A palavra 'humano' pode se referir tanto aos humanos modernos quanto a todo o gênero Homo, mas 'hominídeo' é mais preciso; existem debates sobre se os Neandertais e Denisovanos são considerados humanos.
A rápida acumulação de conhecimento está ligada aos avanços na comunicação, potencialmente incluindo formas iniciais de linguagem, destacando o papel da linguagem na transferência tecnológica.
Tokencost é uma biblioteca utilitária projetada para estimar os custos associados a Modelos de Linguagem de Grande Escala (LLMs) contando tokens em prompts e conclusões e aplicando preços específicos do modelo.
Ele aborda o desafio de rastrear custos em vários modelos e esquemas de preços, ajudando os usuários a evitar contas inesperadas ao fornecer estimativas de custos em tempo real.
Desenvolvido pela AgentOps, o Tokencost agora é de código aberto, permitindo que os desenvolvedores o integrem em seus projetos para uma melhor gestão de custos.
Tokencost é uma biblioteca utilitária projetada para estimar custos para mais de 400 Modelos de Linguagem de Grande Escala (LLMs) contando tokens em prompts e conclusões e multiplicando pelos custos dos modelos.
Desenvolvido pela AgentOps e de código aberto, ele ajuda os desenvolvedores a rastrear gastos e evitar contas inesperadas, usando um simples dicionário de custos e funções utilitárias.
Usuários sugeriram melhorias como adicionar suporte para Rust, normalizar custos e incluir custos de imagem e chamadas de função, embora haja preocupações sobre a precisão para modelos sem tokenizadores públicos.
Em abril de 2024, dois bugs críticos foram relatados na blockchain de camada 1 da Sei Network, afetando a disponibilidade e a integridade da cadeia.
As Fundação Sei concedeu $75.000 e $2.000.000 para os respectivos relatórios de bugs, que foram identificados e corrigidos antes do lançamento da produção, garantindo que nenhum fundo estivesse em risco.
A adoção de medidas proativas e a resposta rápida da Fundação Sei evitaram um possível risco ao valor de mercado do token Sei, demonstrando um forte compromisso com a proteção dos usuários.
Sei Network pagou uma recompensa de $2 milhões por um bug, destacando os significativos incentivos financeiros no setor de criptomoedas para identificar vulnerabilidades de segurança.
As recompensas por bugs foram processadas através da Immunefi, uma plataforma especializada em recompensas por bugs em criptomoedas, que frequentemente vê pagamentos superiores a $1 milhão.
Este pagamento destaca a importância crítica da segurança na indústria de criptomoedas, onde o custo de possíveis violações pode ser astronômico em comparação com as finanças tradicionais.
Google DeepMind está mudando de um laboratório de pesquisa para uma fábrica de produtos de IA, levantando debates sobre os desafios e possíveis armadilhas dessa transição.
Críticos sugerem que integrar equipes de produto experientes do Google com a pesquisa da DeepMind pode ser mais eficaz do que converter a organização de pesquisa em uma entidade focada em produtos.
Preocupações incluem o impacto na pesquisa fundamental e o risco de produzir produtos apressados e subdesenvolvidos, embora alguns acreditem que essa mudança possa levar a avanços significativos em produtos de IA.
As postagens abordam o desafio de obter saídas estruturadas, como JSON, de Modelos de Linguagem de Grande Escala (LLMs), que normalmente retornam respostas em linguagem natural.
Ele fornece uma comparação detalhada de vários frameworks projetados para converter saídas de LLM em formatos estruturados, avaliando-os com base em critérios como suporte a idiomas, manipulação de JSON, controle de prompts e provedores de modelos suportados.
As estruturas comparadas incluem BAML, Instructor, TypeChat, Marvin, Outlines, Guidance, LMQL, JSONformer, Firebase Genkit, SGLang e lm-format-enforcer, cada uma com características e capacidades únicas para lidar com a extração de dados estruturados.
O artigo da BAML explora métodos para obter saída estruturada de Modelos de Linguagem de Grande Escala (LLMs), enfatizando a abordagem única de parsing da BAML para lidar com JSON malformado.
BAML oferece tanto recursos de código aberto quanto pagos, com as opções pagas focadas no monitoramento e aprimoramento de pipelines de IA.
O artigo compara várias estruturas e discute os desafios e compensações na aplicação de saída estruturada, observando que alguns usuários preferem métodos mais simples, como o Pydantic, para validação de JSON.
Os engenheiros de software têm múltiplos objetivos sobrepostos e, às vezes, conflitantes, como escrever código, gerenciar a complexidade e satisfazer as necessidades dos clientes.
Complexidade essencial é inerente ao problema, enquanto complexidade acidental surge de questões de desempenho ou ferramentas subótimas; reduzir ambas é crucial.
Engenheiros seniores podem redefinir problemas desafiando suposições e negociando com as partes interessadas, potencialmente simplificando requisitos e minimizando a complexidade.
Engenheiros de software às vezes abraçam a complexidade para justificar seus papéis, como visto em comunidades como Enterprise Java, .NET e JavaScript (JS).
A matéria faz uma referência humorística à sátira de Stroustrup sobre C++ para destacar a complexidade intencional nas linguagens de programação.
Argumenta que minimizar a complexidade é crucial para uma boa engenharia, equilibrando decisões de curto e longo prazo, e garantindo consistência para evitar complicações desnecessárias.