London Underground Dot Matrix Typeface to zestaw czcionek, które replikują kroje używane na tablicach przyjazdów i tablicach ogłoszeń londyńskiego systemu transportu podziemnego.
Krój zawiera różne grubości i reprezentuje czcionki używane w różnych okresach w sieci metra.
Krój pisma jest tworzony przy użyciu materiałów referencyjnych, takich jak zdjęcia i filmy, a użytkownicy mogą wnieść swój wkład, dodając nowe znaki do istniejących krojów pisma.
Artykuł omawia poszukiwanie znaczenia i pochodzenia tajemniczego symbolu o nazwie U+237C ⍼ &Angzarr;
Autor zwrócił się do Biblioteki Cambridge z prośbą o skany dokumentów związanych z tym symbolem, ale otrzymał odpowiedź, że przekracza to prawa autorskie i limity skanowania.
Czytelnicy są zainteresowani pomocą w sfinansowaniu cyfrowej prośby i znalezieniu sposobu na kontynuowanie badań.
Bullshit jobs to bezsensowne i niepotrzebne stanowiska, które istnieją zarówno w sektorze publicznym, jak i prywatnym, powodując frustrację wśród pracowników i podważając prawdziwy cel organizacji.
Wielu pracowników czuje się uwięzionych w swoich bezsensownych miejscach pracy i walczy o znalezienie równowagi między potrzebą sensownej pracy a wymaganiami pracy w BS, co prowadzi do negatywnych skutków dla ich zdrowia psychicznego i poczucia własnej wartości.
Koncepcja powszechnego dochodu podstawowego (UBI) jest postrzegana jako potencjalne rozwiązanie problemu bzdurnych miejsc pracy i nierówności dochodów, dając jednostkom możliwość wyboru sposobu spędzania czasu i wnoszenia wkładu w społeczeństwo.
Książka "Bullshit Jobs" autorstwa Davida Graebera bada koncepcję miejsc pracy, które są postrzegane jako bezcelowe lub niepotrzebne przez samych pracowników.
Książka stawia pytania o naturę pracy, wpływ biurokracji na organizacje oraz znaczenie i wartość, jaką ludzie czerpią ze swojej pracy.
Koncepcja bullshit jobs wywołała dyskusje na temat przyszłości pracy i potrzeby sensownego zatrudnienia.
GB Studio to przyjazny dla użytkownika kreator gier typu "przeciągnij i upuść", który umożliwia tworzenie gier retro na przenośny system gier wideo GameBoy.
Program jest dostępny dla systemów Windows, Mac i Linux, a pobrać go można ze strony Itch.io.
Oprogramowanie nie wymaga żadnej wiedzy programistycznej i obsługuje wiele gatunków gier. Zawiera również wbudowany edytor muzyki i umożliwia tworzenie prawdziwych plików ROM, które można odtwarzać na dowolnym emulatorze GameBoy.
Autor wyraża swoją frustrację pojawieniem się nowych języków zapytań w branży i argumentuje, że użycie SQL jako wspólnego języka dla baz danych ogólnego przeznaczenia jest bardziej praktyczne i wydajne.
Autor porównuje nowy język zapytań o nazwie FancyQL z SQL, podkreślając, że SQL nie jest tak złożony, jak się go często przedstawia i może skutecznie obsługiwać zadania związane z danymi.
Autor podkreśla zalety SQL, takie jak jego powszechne użycie, wsparcie ze strony głównych silników baz danych i ciągłe doskonalenie przez komitet normalizacyjny. Twierdzą, że nie ma potrzeby tworzenia wymyślnego języka zapytań, skoro SQL jest już w stanie to zrobić.
Zapytania SQL mogą mieć wady, jeśli chodzi o zapytania do baz danych o różnych typach i mnogości, co prowadzi do nadmiarowych danych wyjściowych i braku obsługi błędów.
Obsługa JSON w bazach danych pozwala na agregowanie wyników podselekcji w pojedynczej kolumnie, zapewniając większą elastyczność zapytań.
Alternatywne języki zapytań, takie jak EdgeQL i PRQL, mają na celu poprawę ograniczeń SQL, ale SQL pozostaje cennym i szeroko stosowanym narzędziem w branży.
W poście omówiono techniki przyspieszające szkolenie i wnioskowanie dużych modeli językowych (LLM) w celu wykorzystania okna kontekstowego do 100 tys. tokenów wejściowych, które jest znacznie większe niż w poprzednich modelach.
Wyjaśniono ograniczenia oryginalnej architektury Transformer podczas pracy z dużymi długościami kontekstu, w tym kwadratową złożoność czasową i przestrzenną obliczeń warstwy uwagi.
Przedstawiono kilka technik optymalizacji, w tym osadzanie pozycyjne ALiBi, Sparse Attention, FlashAttention, Multi-Query attention, Conditional computation oraz wykorzystanie procesorów graficznych 80GB A100, które pomagają zwiększyć długość kontekstu i poprawić wydajność LLM.
Model 100k firmy Anthropics wykorzystuje sprytne techniki w celu wydłużenia okna kontekstowego, ale ma pewne niedoskonałości.
Umieszczenie instrukcji po tekście odniesienia w danych wejściowych może pomóc modelowi zwrócić na nie większą uwagę.
Brak możliwości buforowania transformatorów sprawia, że duże okna kontekstowe są kosztowne, ale projekt RWKV-LM na GitHub oferuje potencjalne rozwiązanie.
Claude firmy Anthropics przewyższa GPT4 w niektórych przypadkach i ogólnie plasuje się między GPT4 a Bard.
Pozycja podpowiedzi w danych wejściowych może wpływać na "uwagę" modelu i tendencyjność.
Transformatory zostały zaprojektowane w celu uniknięcia problemów związanych z pozycją, ale niektóre przypadki pokazują, że tendencyjność może być nadal obecna.
Modele LLM mogą mieć trudności z przydzieleniem tego samego poziomu uwagi do wszystkich części wejścia w całym oknie kontekstu.
Claude Anthropics jest uważana za niedocenianą, ale dostęp do niej jest obecnie utrudniony.
Wymagania obliczeniowe dla dużych rozmiarów kontekstu mogą być znaczące, ale mogą być tego warte w przypadku konkretnych zastosowań, takich jak programowanie.
Trening LLM z dużymi oknami kontekstowymi wymaga dużych zasobów, ale kompresja i optymalizacja modeli może poprawić wydajność.
Duże rozmiary kontekstów są niezbędne do zadań takich jak przywoływanie faktów i rozumienie długich historii.
Istnieje zapotrzebowanie na testy porównawcze, które koncentrują się na zadaniach wymagających dużych rozmiarów kontekstu.
Kompresja stratna może skutkować lepszą jakością w porównaniu do kompresji bezstratnej, jeśli chodzi o LLM.
Metody kodowania pozycyjnego, takie jak osadzanie sinusoidalne, mogą nie być odpowiednie dla dużych rozmiarów kontekstu.
Ogólna wiedza na temat sztucznej inteligencji jest niezbędna, ale niezależne odtwarzanie lub modyfikowanie LLM wymaga znacznych zasobów.
Trwają badania nad poprawą skalowalności LLM pod względem wymagań obliczeniowych i pamięciowych.
Wykorzystanie wyuczonego kodowania pozycyjnego pozwala na precyzyjne dostrojenie w przypadku większych rozmiarów kontekstu.
Artykuł nie zawiera szczegółowych wyjaśnień i zawiera niejasne stwierdzenia na temat skalowania kontekstu w LLM.
Istnieje zainteresowanie badaniem różnych paradygmatów i technik w celu rozwiązania złożoności obliczeniowej dużych rozmiarów kontekstu.
Blog GoPenAI, na którym znajduje się artykuł, nie jest powiązany z OpenAI pomimo podobieństwa w nazwie domeny.
Badania pokazują, że niewinne osoby mogą być przekonane, poprzez odpowiednie techniki przesłuchań, że popełniły przestępstwo, które w rzeczywistości nigdy nie miało miejsca.
Fałszywe wspomnienia o popełnieniu przestępstwa można wygenerować w ciągu zaledwie kilku godzin poprzez przyjazne środowisko przesłuchań i wprowadzenie niewłaściwych szczegółów.
Włączenie prawdziwych szczegółów do fałszywych historii zdarzeń może sprawić, że będą one wydawać się bardziej wiarygodne, prowadząc osoby do przedstawienia bogatych i szczegółowych opisów wydarzeń, które nigdy nie miały miejsca.
Technika Reid stosowana przez organy ścigania może prowadzić do fałszywych zeznań i niesłusznych skazań.
Badania psychologiczne pokazują, że fałszywe wspomnienia mogą być wszczepiane, co prowadzi do fałszywego przekonania ludzi, że popełnili przestępstwo.
Badanie to rodzi pytania o wiarygodność ludzkiej pamięci i jego implikacje dla systemu sądownictwa karnego.
Dlaczego Apple odmawia dodania przyciągania okien do macOS?- Post omawia, dlaczego Apple nie dodało funkcji zwanej "przyciąganiem okien" do swojego systemu operacyjnego macOS.
Przyciąganie okien to funkcja, która umożliwia użytkownikom łatwe rozmieszczanie i zmianę rozmiaru otwartych okien na ekranie komputera.
W poście omówiono różne perspektywy, dlaczego Apple mogło zdecydować się nie dodawać tej funkcji do systemu macOS.
Użytkownicy zastanawiają się, dlaczego Apple nie dodało funkcji przyciągania okien do systemu macOS, wyrażając frustrację z powodu domyślnego zachowania zielonego przycisku w oknach macOS.
Dyskusja podkreśla zainteresowanie i zapotrzebowanie na funkcję przyciągania okien w systemie macOS, a także różne obejścia i opcje dostosowywania dostępne dla użytkowników.
Wielu użytkowników wyraża frustrację z powodu konieczności korzystania z aplikacji innych firm w celu efektywnego zarządzania oknami i poleca rozwiązania takie jak Magnet, Rectangle i Amethyst do zarządzania oknami.
Przegląd wydajności serwerów ARM64 firmy Hetzner pokazuje, że działają one bardzo dobrze, a maszyna CAX21 jest tylko o 8% wolniejsza od maszyny CPX21 pod względem szybkości konwersji WebP.
Hetzner oferuje najniższą cenę serwerów ARM64 w porównaniu do innych popularnych dostawców usług.
WebP Cloud Services przeniosło wszystkie swoje usługi na serwery ARM64 firmy Hetzner ze względu na ich imponującą wydajność i opłacalność.
Autor artykułu popełnił błąd, opisując procesor E3-1230 jako serwer 8-rdzeniowy, podczas gdy w rzeczywistości jest to serwer 4-rdzeniowy z 8 wątkami.
Niektórzy użytkownicy doświadczyli trudności z używaniem obrazów ARM w Dockerze, ponieważ są one często niekompletne lub opóźnione w stosunku do cyklu wydawniczego x86.
Serwery ARM64 firmy Hetzner stanowią opłacalną alternatywę dla serwerów x86, z porównywalną wydajnością i znacznymi oszczędnościami kosztów.
System plików bcachefs, mający na celu zapewnienie wysokiej wydajności i niezawodności, jest coraz bliżej włączenia do głównego jądra Linuksa.
Twórca bcachefs, Kent Overstreet, omówił status systemu plików, w tym ostatnie ulepszenia skalowalności i implementację funkcji takich jak snapshoty i erasure coding.
Overstreet opublikował wstępne poprawki do przeglądu i pracuje nad procesem scalania bcachefs, w tym nad rozwiązywaniem problemów związanych z obsługą błędów i przeglądem kodu.
Bcachefs, nowy system plików, jest w trakcie włączania do jądra Linuksa.
Pojawiły się obawy dotyczące liczby systemów plików w jądrze i trudności z ich usunięciem ze względu na ścisłe powiązania między systemami plików i innymi podsystemami.
Bcachefs jest rozwijany od ponad 10 lat i wygląda obiecująco, ale może minąć jeszcze trochę czasu, zanim zostanie zalecony do powszechnego użytku.