Disney har utvecklat en teknik som kallas HoloTile-golvet, som är ett omnidirektionellt rullbandsgolv för flera personer som förstärker VR-upplevelsen.
HoloTile-golvet gör det möjligt för flera personer att dela en VR-upplevelse och gå i vilken riktning som helst utan att kollidera.
Den här tekniken har potentiella tillämpningar utöver VR, inklusive teaterscener, och ger en glimt av framtidens uppslukande underhållning.
Disney har introducerat HoloTile-golvet, en ny teknik som använder ultraljudsplattor för att reglera friktion och rörelse.
HoloTile-golvet möjliggör en kontrollerad rörelseriktning, även om det finns invändningar mot dess säkerhet och hållbarhet.
Bland tittarna spekuleras det i om plattorna snurrar snarare än roterar, vilket väcker frågor om hur tillförlitlig tekniken är.
HoloTile-golvet är en innovativ metod för friktionskontroll, men det pågår diskussioner om dess praktiska användbarhet, effektivitet och potentiella begränsningar i tillämpningar med virtuell verklighet.
"Build a Large Language Model (From Scratch)" är en bok som ger en steg-för-steg-guide för hur du skapar din egen språkmodell.
Boken innehåller tydliga förklaringar, diagram och exempel som hjälper läsaren att förstå varje steg i processen.
Det följer ett liknande tillvägagångssätt för att bygga modeller som ChatGPT.
Den medföljande koden och kompletterande material finns tillgängliga i GitHub-arkivet.
Ämnen som behandlas i boken inkluderar förståelse för stora språkmodeller, arbete med textdata, kodning av uppmärksamhetsmekanismer, implementering av en GPT-modell, förträning på omärkta data, finjustering för textklassificering, finjustering med mänsklig feedback, användning av stora språkmodeller i praktiken samt en introduktion till PyTorch.
Författaren skriver en omfattande guide och bok om hur man bygger en ChatGPT-liknande språkmodell (LLM) från grunden, med målet att utbilda och avmystifiera LLM:er och samtidigt ge praktisk hjälp för att implementera anpassade modeller.
Att utbilda en LLM från grunden kanske inte är ekonomiskt genomförbart för de flesta, men författaren rekommenderar att man använder ramverk som HF-transformatorer eller axolotl. Ett välfinansierat företag har dock visat att det är möjligt att utbilda från grunden.
Boken täcker förträning, finjustering och laddning av förtränade vikter, och läsarna är intresserade av råd om förstärkningsinlärning. Diskussionen omfattar även rekommendationer för RL, neurala nätverk och transformatorresurser.
Författaren försvarar kostnaden för boken, nämner tillgängliga kuponger och välkomnar feedback via Manning Forum eller GitHub.
Boken förväntas bli 400-500 sidor lång, och det finns en videohandledning för en kortare introduktion. Videohandledningens lämplighet för nybörjare är omdiskuterad, men skaparen försäkrar att fler kapitel är på gång.