2023 年 6 月 18 日
- 伦敦地铁点阵字体是一套复制伦敦地铁交通系统的到站牌和公告牌上所用字体的字体。
- 该字体包括不同的重量,代表了地铁网络不同时期使用的字体。
- 该字体是利用照片和视频等参考资料创建的,人们有机会通过在现有的字体上添加新的字符来作出贡献。
- 伦敦地铁的点阵式字体已经由一名设计师重新制作,并在 GitHub 上提供。
- 该字体很有特色,很容易识别,大写字母延伸到基线以下。
- 这种字体很可能是伦敦地铁特有的,但可能与其他交通系统使用的字体有相似之处。
- 该帖子调查了 U+237C ⍼ 右角带下行 Zigzag 箭头的符号在 Unicode 标准中的起源和历史。
- 该调查追溯到 ISO/IEC TR 9573-13,一份 SGML 的技术报告,以及矩阵序列号为 S16139 的 Monotype。
- 作者在寻找与该符号有关的具体文件时遇到了挑战,但调查正在进行中。
- 文章讨论了寻找一个名为 U+237C ⍼ &Angzarr 的神秘符号的含义和来源;
- 作者向剑桥图书馆提出请求,要求扫描与该符号有关的文件,但被告知超过了版权法和扫描限制。
- 读者有兴趣帮助资助数字请求并找到继续研究的方法。
- 狗屁工作是存在于公共和私营部门的无意义和不必要的职位,造成员工的挫败感,破坏了组织的真正目的。
- 许多工人感到被困在毫无意义的工作中,并努力在对有意义的工作的需求和 BS 工作的要求之间找到平衡,导致对他们的心理健康和自尊的负面影响。
- 普遍基本收入(UBI)的概念被认为是解决狗屁工作和收入不平等问题的潜在解决方案,使个人有能力选择如何花费他们的时间并为社会做出贡献。
- 大卫-格雷伯的《狗屁工作》一书探讨了雇员自己认为无意义或不必要的工作概念。
- 该书提出了关于工作性质、官僚主义对组织的影响、以及人们从工作中获得的意义和价值的问题。
- 废话工作的概念引发了关于未来工作和有意义的就业需求的对话。
- GB Studio 是一个用户友好的拖放游戏创建器,允许你为 GameBoy 掌上视频游戏系统制作复古游戏。
- 它可用于 Windows、Mac 和 Linux,你可以从 Itch.io 下载。
- 该软件不需要任何编程知识,支持多种游戏类型。它还包括一个内置的音乐编辑器,允许你创建真正的 ROM 文件,可以在任何 GameBoy 模拟器上播放。
- GB Studio 是一款用于 GameBoy 的复古游戏创建器,允许用户通过拖放来创建游戏。
- GameBoy 历来需要汇编编程,但 GB Studio 提供了一个所见即所得的游戏引擎,使游戏开发更加容易。
- GB Studio 输出的 ROM 文件可以在模拟器、网页或真正的 GameBoy 硬件上运行。
- 作者对业界出现的新查询语言表示失望,认为使用 SQL 作为通用数据库的通用语言更实用、更高效。
- 作者将一种名为 FancyQL 的新查询语言与 SQL 进行了比较,强调 SQL 并不像人们经常描述的那样复杂,可以有效地处理与数据有关的任务。
- 作者强调了 SQL 的优势,比如它的广泛使用,主要数据库引擎的支持,以及通过标准委员会的不断改进。他们断言,既然 SQL 已经有能力,就没有必要再搞什么花哨的查询语言。
- 当涉及到查询不同类型和多重性的数据库时,SQL 查询会有缺点,导致冗余输出和缺乏错误处理。
- 数据库中的 JSON 支持允许将子选择结果聚合到一个列中,在查询中提供更多的灵活性。
- 像 EdgeQL 和 PRQL 这样的替代查询语言旨在改善 SQL 的局限性,但 SQL 仍然是行业中一个有价值的、广泛使用的工具。
- 这篇文章讨论了加快大型语言模型(LLMs)的训练和推理的技术,以使用多达 100K 的输入标记的上下文窗口,这比以前的模型大得多。
- 解释了原始 Transformer 架构在处理大语境长度时的局限性,包括注意力层计算的二次方时间和空间复杂性。
- 介绍了几种优化技术,包括 ALiBi 位置嵌入、稀疏注意、FlashAttention、多查询注意、条件计算和使用 80GB A100 GPU,这些技术有助于增加语境长度和提高 LLM 的效率。
- Anthropics 的 100k 模型采用了巧妙的技术来延长上下文窗口,但它也有一些不完善之处。
- 将指令放在输入中的参考文本之后,可以帮助模型更多关注它们。
- 无法缓存变换器使得大型上下文窗口的成本很高,但 GitHub 上的 RWKV-LM 项目提供了一个潜在的解决方案。
- Anthropics 的 Claude 在某些情况下优于 GPT4,总体排名在 GPT4 和 Bard 之间。
- 提示在输入中的位置会影响模型的 "注意力 "和回顾性偏差 。
- 变形器的设计是为了避免位置问题,但一些案例显示,回顾性偏差仍然可能存在。
- LLMs 可能难以在整个上下文窗口中对输入的所有部分分配相同的注意力。
- 人类学的克劳德被认为是未受重视的,但目前很难获得它。
- 大的上下文规模的计算要求可能是显著的,但对于像编程这样的特定应用来说可能是值得的。
- 用大上下文窗口训练 LLM 是资源密集型的,但压缩和优化模型可以提高效率。
- 大的上下文规模对于回忆事实和理解长篇故事等任务是必要的。
- 需要有专注于需要大上下文规模的任务的基准。
- 当涉及到 LLM 时,与无损压缩相比,有损压缩可以带来更好的质量。
- 正弦波嵌入等位置编码方法可能不适合大的上下文规模。
- 一般的人工智能知识是必不可少的,但独立复制或修改 LLM 需要大量资源。
- 目前正在进行研究,以提高 LLMs 在计算和内存要求方面的可扩展性。
- 使用学习的位置编码可以在更大的上下文规模上进行微调。
- 这篇文章缺乏详细的解释,对 LLMs 中上下文的扩展做了模糊的陈述。
- 人们对探索不同的范式和技术来解决大上下文规模的计算复杂性很感兴趣。
- 文章所在的博客 GoPenAI,尽管域名相似,但与 OpenAI 没有关系。