Точечно-матричный шрифт лондонского метро - это набор шрифтов, повторяющих шрифты, используемые на табло прибытия и объявлениях транспортной системы лондонского метрополитена.
Шрифт включает в себя шрифты разного веса и представляет собой шрифты, используемые в различные периоды времени в сети метрополитена.
При создании шрифта используются справочные материалы, такие как фотографии и видео, и есть возможность для людей внести свой вклад, добавив новые символы к существующим шрифтам.
В статье обсуждается поиск значения и происхождения загадочного символа под названием U+237C ⍼ &Angzarr;
Автор обратился в Кембриджскую библиотеку с просьбой предоставить сканы документов, связанных с этим символом, но ему ответили, что это превышает закон об авторском праве и лимиты сканирования.
Читатели заинтересованы в том, чтобы помочь профинансировать цифровой запрос и найти способ продолжить исследование.
Фиговые рабочие места - это бессмысленные и ненужные должности, которые существуют как в государственном, так и в частном секторе, вызывая разочарование среди работников и подрывая истинную цель организаций.
Многие работники чувствуют себя в ловушке бессмысленной работы и пытаются найти баланс между потребностью в осмысленной работе и требованиями своих BS-работ, что приводит к негативным последствиям для их психического здоровья и самооценки.
Концепция универсального базового дохода (UBI) рассматривается как потенциальное решение проблемы бессмысленной работы и неравенства доходов, предоставляя людям возможность выбирать, как они проводят свое время и вносят вклад в общество.
GB Studio - это удобная программа для создания игр, позволяющая создавать ретро-игры для портативной игровой системы GameBoy.
Программа доступна для Windows, Mac и Linux, и ее можно скачать с сайта Itch.io.
Программа не требует знаний программирования и поддерживает множество жанров игр. Она также содержит встроенный музыкальный редактор и позволяет создавать настоящие ROM-файлы, которые можно воспроизводить на любом эмуляторе GameBoy.
Автор выражает свое разочарование появлением новых языков запросов в индустрии и утверждает, что использование SQL в качестве общего языка для баз данных общего назначения является более практичным и эффективным.
Автор сравнивает новый язык запросов под названием FancyQL с SQL, подчеркивая, что SQL не так сложен, как его часто представляют, и может эффективно решать задачи, связанные с данными.
Автор подчеркивает преимущества SQL, такие как широкое распространение, поддержка со стороны основных движков баз данных и постоянное совершенствование с помощью комитета по стандартам. Они утверждают, что нет необходимости в причудливом языке запросов, когда SQL уже обладает всеми возможностями.
SQL-запросы могут иметь недостатки, когда речь идет о запросах к базам данных с различными типами и множественностью, что приводит к избыточному выводу и отсутствию обработки ошибок.
Поддержка JSON в базах данных позволяет агрегировать результаты подвыбора в один столбец, что обеспечивает большую гибкость при составлении запросов.
Альтернативные языки запросов, такие как EdgeQL и PRQL, направлены на улучшение ограничений SQL, но SQL остается ценным и широко используемым инструментом в отрасли.
В статье обсуждаются методы ускорения обучения и вывода больших языковых моделей (LLM) для использования контекстного окна до 100K входных лексем, что значительно больше, чем в предыдущих моделях.
Объясняются ограничения оригинальной архитектуры Transformer при работе с большими длинами контекста, включая квадратичную временную и пространственную сложность вычислений слоя внимания.
Представлено несколько методов оптимизации, включая позиционное встраивание ALiBi, разреженное внимание, FlashAttention, многозапросное внимание, условные вычисления и использование 80-гигабайтных графических процессоров A100, которые помогают увеличить длину контекста и повыси ть эффективность LLM.
В 100-килобайтной модели Anthropics используются умные приемы для увеличения контекстного окна, но она имеет некоторые недостатки.
Размещение инструкций после текста ссылок во входных данных может помочь модели уделять им больше внимания.
Невозможность кэширования трансформаторов делает большие контекстные окна дорогостоящими, но проект RWKV-LM на GitHub предлагает потенциальное решение.
Anthropics's Claude превосходит GPT4 в некоторых случаях и в целом занимает место между GPT4 и Bard.
Положение подсказки во входных данных может влиять на "внимание" модели и ее склонность к повторению.
Трансформеры были разработаны таким образом, чтобы избежать проблем с позиционированием, но некоторые случаи показывают, что смещение реципрокности все же может присутствовать.
LLM могут испытывать трудности с выделением одинакового уровня внимания ко всем частям ввода во всем контекстном окне.
Клод Антроп считается недооцененным, но доступ к нему в настоящее время затруднен.
Вычислительные требования для больших размеров контекста могут быть значительными, но могут стоить того для специфических приложений, таких как программирование.
Обучение LLM с большими контекстными окнами требует значительных ресурсов, но сжатие и оптимизация моделей могут повысить эффективность.
Большие размеры контекста необходимы для таких задач, как запоминание фактов и понимание длинных историй.
Необходимы эталоны, ориентированные на задачи, требующие больших размеров контекста.
Сжатие с потерями может привести к лучшему качеству по сравнению со сжатием без потерь, когда речь идет о LLM.
Методы позиционного кодирования, такие как синусоидальные вкрапления, могут не подходить для больших размеров контекста.
Знание ИИ в целом необходимо, но самостоятельное воспроизведение или модификация LLM требует значительных ресурсов.
В настоящее время ведутся исследования по улучшению масштабируемости LLM с точки зрения требований к вычислениям и памяти.
Использование выученных позиционных кодировок позволяет производить тонкую настройку на больших размерах контекста.
В статье отсутствуют подробные объяснения и делаются расплывчатые заявления о масштабировании контекста в LLM.
Существует интерес к изучению различных парадигм и методов для решения проблемы вычислительной сложности больших размеров контекста.
Блог GoPenAI, где размещена статья, не связан с OpenAI, несмотря на сходство в доменном имени.
Исследования показывают, что невиновных людей можно убедить с помощью правильных методов допроса, что они совершили преступление, которого на самом деле не было.
Ложные воспоминания о совершении преступлений могут быть созданы всего за несколько часов с помощью дружелюбной обстановки интервью и введения неверных деталей.
Включение правдивых деталей в ложные рассказы о событиях может сделать их более правдоподобными, что заставляет людей давать богатые и подробные описания событий, которые никогда не происходили.
Техника "Рейд", используемая правоохранительными органами, может привести к ложным признаниям и неправомерным приговорам.
Психологические исследования показывают, что ложные воспоминания могут быть имплантированы, что приводит к тому, что люди ошибо чно верят в то, что они совершили преступление.
Это исследование поднимает вопросы о надежности человеческой памяти и его последствиях для системы уголовного правосудия.
Почему Apple отказывается добавить в macOS функцию привязки окон?- В статье обсуждается, почему компания Apple не добавила в свою операционную систему macOS функцию под названием "привязка окон".
Привязка окон - это функция, которая позволяет пользователям легко упорядочивать и изменять размеры открытых окон на экране компьютера.
В статье рассматриваются различные точки зрения на то, почему Apple решила не включать эту функцию в macOS.
Пользователи задаются вопросом, почему Apple не добавила функцию привязки окон в macOS, выражая недовольство поведением зеленой кнопки по умолчанию в окнах macOS.
Обсуждение подчеркивает интерес и спрос на функцию привязки окон в macOS, а также различные обходные пути и варианты настройки, доступные пользователям.
Многие пользователи выражают недовольство тем, что для эффективного управления окнами приходится использовать сторонние приложения, и рекомендуют такие решения, как Magnet, Rectangle и Amethyst для управления окнами.
Обзор производительности ARM64-серверов Hetzner показывает, что они работают очень хорошо, причем машина CAX21 всего на 8% медленнее машины CPX21 по скорости конвертации WebP.
Hetzner предлагает самую низкую цену на серверы ARM64 по сравнению с другими популярными поставщиками услуг.
Компания WebP Cloud Services перевела все свои услуги на ARM64-серверы Hetzner благодаря их впечатляющей производительности и экономичности.
Автор статьи допустил ошибку, описав процессор E3-1230 как 8-ядерный сервер, хотя на самом деле это 4-ядерный сервер с 8 потоками.
Некоторые пользователи столкнулись с трудностями при использовании образов ARM в Docker, поскольку они часто неполные или отстают от цикла выпуска x86.
Серверы ARM64 компании Hetzner представляют собой экономически эффективную альтернативу серверам x86 с сопоставимой производительностью и значительной экономией средств.
Файловая система bcachefs, нацеленная на обеспечение высокой производительности и надежности, становится все ближе к тому, чтобы быть объединенной с основным ядром Linux.
Создатель bcachefs, Кент Оверстрит, рассказал о состоянии файловой системы, включая последние улучшения масштабируемости и реализацию таких функций, как моментальные снимки и кодирование стирания.
Оверстрит выложил предварительные исправления для обзора и работает над процессом слияния bcachefs, включая решение проблем, связанных с поддержкой ошибок и обзором кода.
Bcachefs, новая файловая система, находится в процессе включения в ядро Linux.
Были высказаны опасения по поводу количества файловых систем в ядре и трудностей с их удалением из-за тесной связи между файловыми системами и другими подсистемами.
Bcachefs находится в разработке уже более 10 лет и показывает многообещающие результаты, но может пройти еще некоторое время, прежде чем она будет рекомендована для широкого использования.