StableLM to nowy model językowy o otwartym kodzie źródłowym przeznaczony do zadań związanych z przetwarzaniem języka naturalnego.
Model jest wyjątkowy, ponieważ pozwala użytkownikom trenować i dostrajać go na własnych specyficznych zestawach danych, zwiększając w ten sposób wydajność uczenia się języka specyficznego dla danego zadania.
Jego architektura opiera się na BERT i jest zaprojektowana tak, aby zminimalizować katastrofalne zapominanie.
Model jest wstępnie wytrenowany na dużym korpusie tekstów, w tym Wikipedii i Common Crawl.
Oprogramowanie jest łatwe w użyciu i jest dostępne na GitHubie, z dokumentacją, która pomaga użytkownikom rozpocząć pracę.
StableLM został już wykorzystany w różnych zastosowaniach, w tym w klasyfikacji tekstu i analizie sentymentu.
Nowy model językowy open-source o nazwie StableLM został wydany przez Stability.AI, z modelami o parametrach od 3B do 65B i szerokości kontekstu 4096.
Ocena modelu spotkała się z krytyką, ale jest to dobra opcja dla programistów, którzy chcą poprawić model, ponieważ jest to open source.
Model StableLM alfa jest testowany i oczekuje się, że przewyższy Pythia 6.9B i będzie szkolony na maksymalnie 1,5 biliona tokenów.
Większe modele uczą się szybciej, ale są podatne na przepasanie i korporacje zmuszają konsumentów do płacenia za moc obliczeniową z góry.
Zoptymalizowane frameworki ML stają się coraz bardziej dostępne na sprzęcie konsumenckim, ale dobre modele językowe wymagają obecnie drogich procesorów graficznych, co sprawia, że jedyną opcją są API w chmurze.
Serwowanie modeli językowych poprzez API pozwala na wysoce zoptymalizowane wnioskowanie, ale lokalne obliczenia pozwalają na większą prywatność w aplikacjach AI.
Badacze ze Stanford wydali StableLM na licencji open-source, co spotkało się z różnymi opiniami.
Rozwój i wykorzystanie AI to gorące tematy, z różnymi opiniami na temat superinteligentnej AI przejmującej władzę nad światem.
Uśpienie domowego serwera linuksowego w stanie bezczynności i obudzenie go na żądanie - prosty sposób
Artykuł opisuje, jak skonfigurować domowy serwer z systemem Ubuntu Linux do uśpienia w stanie bezczynności i wybudzania na żądanie w celu hostowania kopii zapasowych Time Machine.
Wake-on-LAN włączony, aby obudzić serwer poprzez pakiety unicast.
Usługi sieciowe, w tym ARP Stand-in i Avahi, skonfigurowane w celu utrzymania łączności sieciowej podczas uśpienia serwera.
Kod współdzielony w celu określenia stanu bezczynności/ zajętości i zautomatyzowania zawieszenia w pamięci RAM za pomocą zadania cron.
Potrzebne jest oddzielne, zawsze włączone urządzenie linuksowe i urządzenie interfejsu sieciowego, które obsługuje Wake-on-LAN z pakietami unicastowymi.
ARP Stand-in pozwala urządzeniu sieciowemu odpowiadać na żądania ARP w imieniu śpiącego serwera, wywołując jego przebudzenie.
Autor użył Ruby i libpcap z filtrem pakietów żądań ARP skierowanych na adres IP śpiącego serwera, aby zaimplementować ARP Stand-in.
Rozwiązano problem niepożądanych przebudzeń spowodowanych przez pakiety AFP i zapytania NetBIOS.
Artykuł wyjaśnia jak wyłączyć IPv6 i użyć mirroringu portów do przechwytywania pakietów z urządzenia pośredniczącego między serwerem a resztą sieci.
Avahi użyty jako usługa stand-in dla ARP przez autora.
Autor użył avahi-publish do skonfigurowania Raspberry Pi.
Autor stworzył definicję usługi systemd, która automatycznie uruchamia avahi-publish przy starcie systemu.
Konfiguracja przebiegała pomyślnie przez ponad miesiąc.
Raspberry Pi jest popularną opcją dla serwerów o niskim poborze mocy, ale niektórzy użytkownicy zalecają używanie go do synchronizacji plików z "prawdziwym" serwerem kopii zapasowych zamiast konfiguracji na żądanie.
Sugestie dotyczące działania serwera o niskim poborze mocy obejmują użycie wifi i skonfigurowanie ethernetu do pracy przy niskim poborze mocy.
Sugerowane są alternatywne mini PC, takie jak Beelink i Topton NAS.
ChatGPT jest zalecany do szybszego rozwiązywania problemów.
Omawiane są funkcje oszczędzania energii i trudności związane z definicją "bezczynności".
Dyskutowane są konfiguracje Wake on LAN i samodzielne tworzenie kopii zapasowych w porównaniu z usługami w chmurze, a także obawy dotyczące prywatności i nadzoru.
Czytelnicy dzielą się wskazówkami dotyczącymi optymalizacji zużycia energii, takimi jak wyłączanie dysków twardych i stosowanie wydajnych energetycznie zasilaczy.
Omawiana jest technologia IPv6 i jej zalety.
Omówiono strategie minimalizowania zużycia energii przez serwery domowe.
ARP spoofing może być użyty do obudzenia śpiącego serwera.
Post dostarcza rekonstrukcje i schematy różnych starożytnych stawonogów, w tym Euarthropodów, Dinocarididów, lobopodów i innych.
Użytkownik, Junnn11, jest entuzjastą stawonogów, koncentrującym się na problemie głowy panarthropoda, filogenezie w obrębie podtypów stawonogów i linii macierzystej, bazalnych cheliceratach, dinokarydach i lobopodach.
Post zawiera listę różnych gatunków fuxianhuiidae, megacheirans, pycnogonids, synziphosurines, chasmataspidids, eurypterids, arachnids, i więcej.
Są też rysunki interpretacyjne różnych starożytnych stawonogów.
Post zawiera linki do japońskiej strony użytkownika w Wikipedii i konta na Twitterze.
Nie ma żadnego nowego lub niedawnego wydania wspomnianego w poście.
Post na Discussion Service pokazuje osoby głęboko zaangażowane w niszowe tematy, w tym technologię, biologię i modelarstwo.
Użytkownicy omawiają korzyści i wady bycia zaangażowanym w takie tematy, w tym wpływ na motywację i legitymizację doktorancką swoich zainteresowań.
Ilustracje użytkownika Junnn11 przedstawiające biomechanikę i ruch stawonogów na stronie Wikipedii wywołały dyskusję na temat biologii, genetyki i koncepcji widzenia.
Użytkownicy dyskutują również o "problemie głowy stawonoga" i preferencjach użytkownika, takich jak leniwe ładowanie obrazów.
Domyślne leniwe ładowanie znaczników na stronach internetowych jest problemem związanym z prywatnością i nie jest obecnie zaimplementowane w Safari lub Firefoksie, a ponadto może uszkodzić niektóre strony internetowe.
Aplikacja MediaWiki jest platformą PHP do tworzenia treści generowanych przez użytkowników, a ilustracje owadów Junnn11 na stronie użytkownika zyskały uwagę.
Y Combinator przyjmuje zgłoszenia na lato 2023.
Offline jest po prostu online z ekstremalnym opóźnieniem
Peter Van Hardenberg opowiada się za oprogramowaniem local-first, w którym programy działają na urządzeniach i wykorzystują chmurę do "trwałości lub dostępności", nie będąc od niej zależnymi.
Tradycyjne oprogramowanie na poziomie przedsiębiorstwa i usługi w chmurze są jak budowanie drogich lotniskowców, gdy potrzebne są proste, osobiste i łatwe w utrzymaniu narzędzia.
O trybie online i offline należy myśleć jako o kontinuum z różnymi poziomami opóźnień.
Offline jest tylko najbardziej ekstremalną formą opóźnienia i ma swoje własne gradacje sekund, minut, godzin, dni i więcej.
Przeniesienie idei binariów online/offline na spektrum opóźnień otwiera nowe drzwi dla budowania różnych rzeczy.
Artykuł omawia koncepcję aplikacji offline vs. online oraz debatę wokół tego, czy powinny być one traktowane jako te same, czy też jako odrębne kategorie z własnymi wymaganiami.
Rozmowa dotyczy pesymistycznego vs. optymistycznego UI oraz lokalności danych vs. własności danych.
Rozwiązywanie konfliktów jest złożoną kwestią, gdy mamy do czynienia z aplikacjami offline, a rozwiązania powinny być zaprojektowane tak, aby obsługiwały zarówno środowisko online, jak i offline.
Proponuje się przejście na podejście do produktów oparte na synchronizacji danych.
Doświadczenia offline-first muszą być starannie zaprojektowane, aby traktować wszystko jako źródło prawdy i obsługiwać migracje schematów i logiki biznesowej.
Aplikacje peer-to-peer są preferowane przez niektórych użytkowników w stosunku do usług internetowych ze względu na obawy dotyczące prywatności i kontroli.
Wybór podejścia (lokalne vs. oparte na chmurze) zależy od potrzeb i preferencji użytkownika.
Dyskusja dotyczy wyzwań technicznych, takich jak NAT i systemy wyszukiwania, oraz omawia potencjalne rozwiązania, w tym standardy federacyjne i sieci kratowe.
Wspomniano o znaczeniu tolerancji offline w takich aplikacjach jak Google Maps, iMessage czy aplikacje pogodowe.
Dyskusja koncentruje się wokół tego, czy offline-first jest realnym rozwiązaniem dla narzędzi współpracy.
Różni komentatorzy omawiają zalety i wady komunikacji offline i online oraz znaczenie odpornego projektu.
Większość moich umiejętności jest teraz nic nie warta, ale 10% jest warte 1000x.
ChatGPT może dostarczyć dokładnych odpowiedzi na proste zadania techniczne, ale może się mylić w przypadku bardziej skomplikowanych.
Jakość odpowiedzi ChatGPT może zostać poprawiona poprzez trening na wyższej jakości korpusach, podczas gdy inni ostrzegają przed zbytnim poleganiem na AI w nauce.
Dużym modelom językowym może brakować materiałów źródłowych w pewnych obszarach, ale możliwość interakcji z ChatGPT i poprawek może być pomocna.
ChatGPT może dostarczyć podstawowych informacji dla osób nie będących ekspertami, ale może wymagać walidacji i weryfikacji.
Modele generatywne mogłyby zdemokratyzować pisanie i pomóc w generowaniu większej ilości tekstu, ale sceptycy uważają, że może to prowadzić do analfabetyzmu i eliminacji niektórych zawodów związanych z pisaniem.
Tekst generowany przez AI mógłby doprowadzić do eliminacji gorzej płatnych zawodów pisarskich, ale może nie wpłynąć na wysokopłatne i wysokiej jakości pisanie.
Chatboty AI mogą generować kiepski kod, a prawodawcy i sędziowie przyjmujący wygenerowany tekst są niepokojący.
Modele językowe napędzane przez AI zwiększają produktywność pisarzy, ale nie mogą całkowicie zastąpić dobrych pisarzy.
Pisanie może wkrótce stać się znaczącą częścią pracy każdego człowieka, ale wielu pisarzy i redaktorów może być zmuszonych do zmiany kariery.
Technologia i AI wielokrotnie sprawiły, że stare sposoby robienia rzeczy stały się przestarzałe, w tym ludzkie komputery w bankach i arkuszach kalkulacyjnych, ale nie może zastąpić podstawowych kompetencji grafików.
Dlaczego niektórzy badacze uważają, że mylę się co do mediów społecznościowych i chorób psychicznych
Wśród naukowców społecznych trwa debata na temat tego, czy media społecznościowe są główną przyczyną epidemii chorób psychicznych wśród nastolatków.
Krytycy twierdzą, że dowody nie są wystarczająco silne, aby poprzeć twierdzenia o szkodliwości.
Zwolennicy twierdzą, że coś znaczącego dzieje się ze zdrowiem psychicznym nastolatków, które rozpoczęło się około 2012 roku, bez alternatywnego wyjaśnienia.
Stawki chorób psychicznych i korzystanie z mediów społecznościowych nie mają wyraźnego związku przyczynowo-skutkowego, ale sceptycy nie mogą wyjaśnić epidemii tak zgrabnie, jak teoria SSM.
Sceptycy wymagają wysokiego poziomu sceptycyzmu opartego na "ponad wszelką wątpliwość", co jest nieodpowiednie dla spraw cywilnych.
Nie ma zgody między naukowcami co do wielkości korelacji między korzystaniem z mediów społecznościowych a problemami ze zdrowiem psychicznym.
Media społecznościowe mogą być szczególnie szkodliwe dla dziewcząt.
Naukowcy często skupiają się na jednym modelu przyczynowym podczas przekształcania pytania w zmienne, które mogą zmierzyć, co może przesłonić inne potencjalne ścieżki przyczynowe.
Dwa z modeli przyczynowych, które mogłyby wyjaśnić wzrost chorób psychicznych u nastolatków, to model okresu wrażliwego i model utratyIRL.
Autor zaleca środki takie jak opóźnienie smartfonów do szkoły średniej, posiadanie szkół wolnych od telefonów i podniesienie wieku "internetowej dorosłości" do 16 lat.
Rząd federalny nie zrobił nic, by ograniczyć korzystanie ze smartfonów przez nieletnich, dlatego potrzebna jest narodowa i globalna dyskusja o tym, czy smartfony i media społecznościowe zakłócają zdrowy rozwój nastolatków.
Sceptycy są potrzebni, aby podnieść kontrargumenty przeciwko dzwonkom alarmowym i wskazać słabe punkty w dowodach.
Weryfikacja wieku dla smartfonów może odbywać się za pomocą innowacyjnych metod, które już teraz oferują firmy takie jak Clear.
Ciągły nadzór rówieśników i uzależniająca natura mediów społecznościowych powodują problemy ze zdrowiem psychicznym, brak snu i rozwój osobisty.
Dyskusja podkreśla potrzebę zniuansowanego zrozumienia wpływu mediów społecznościowych na zdrowie psychiczne, w tym depresję, zastraszanie i samobójstwa.
Zmiana w kierunku gier wideo zawsze online, które zachęcają do uzależniających zachowań jest niepokojąca, a niektórzy argumentują za środkami ochrony osób poniżej 18 roku życia.
Media społecznościowe wpłynęły na życie dzieci, ograniczając ich rozwój niezależności, a brak aktywności na świeżym powietrzu jest problemem, który wymaga rozwiązania.
Wiarygodność samoopisów i danych z poziomu populacji jest omawiana w odniesieniu do zrozumienia przyczyn depresji.
Dostępne dowody wspierają twierdzenie, że media społecznościowe powodują problemy ze zdrowiem psychicznym, a kierunek przyczynowości jest trudny do ustalenia.
Omówiono wpływ zmian klimatycznych na zdrowie psychiczne młodych ludzi, brak aktywizmu wokół nich oraz rolę korporacji, rządów i jednostek.
Wspomina się również o zużyciu energii i braku idealnych alternatyw dla paliw kopalnych, a także o złych praktykach rodzicielskich.
ChatPDF oferuje narzędzie do zwiększenia doświadczeń edukacyjnych dla studentów, pomagając w zrozumieniu podręczników i prac badawczych.
Platforma może skutecznie analizować szereg dokumentów, w tym raporty finansowe i sprzedażowe, propozycje projektów, podręczniki szkoleniowe i umowy prawne.
ChatPDF oferuje bezpieczne przechowywanie w chmurze dla poufnych danych i możliwość usunięcia w dowolnym momencie.
Dla ciekawskich umysłów, ChatPDF może odblokować bogactwo wiedzy z dokumentów historycznych, literatury i innych źródeł.
Narzędzie rozumie każdy język i może odpowiedzieć w preferowanym przez użytkownika języku.
ChatPDF oferuje API, opcje cenowe, FAQ, program partnerski i wsparcie poprzez Twittera i e-mail.
ChatPDF to nowa usługa, która pozwala użytkownikom zadawać pytania dotyczące dokumentów PDF, wykorzystując GPT API OpenAI do generowania odpowiedzi.
Sugestie dotyczące ulepszenia usługi obejmują dostosowanie rozmiaru kawałków, optymalizację semantycznego wyszukiwania lub rekurencji dla bardziej złożonych PDF-ów oraz dzielenie tekstu PDF na kawałki.
Niektórzy użytkownicy wyrażają sceptycyzm, podczas gdy inni wskazują na korzyści, takie jak lepsze wyniki wyszukiwania i indeksowanie semantyczne
Alternatywne, samoobsługowe rozwiązania dla ChatGPT są sugerowane w przypadku korzystania z wrażliwych dokumentów
ChatPDF jest podobny do innych usług indeksowania semantycznego, z sugestiami potencjalnych ulepszeń, takich jak wersja próbna
Niektórzy komentatorzy żartują z szumu wokół modeli GPT AI sugerują inne typy plików do analizy
Kompatybilność wsteczna jest kluczowa dla przestrzeni użytkownika, a poziom kompatybilności systemu Windows jest chwalony dla poszczególnych aplikacji.
Istnieje niewiele obejść umożliwiających uruchomienie starych rzeczy pod Linuksem z odpowiednimi bibliotekami.
Debian 12 będzie nadal zawierał GTK2, mimo że niektóre dystrybucje próbują go usunąć.
Stworzenie wysokiej jakości zestawu narzędzi GUI wymaga dojrzałości, kompletności i wysiłku.
Niektóre zestawy narzędzi UI nie mają wspólnych widżetów i zmuszają deweloperów do korzystania z widżetów innych firm.
Pewien programista proponuje użycie Abstrakcyjnego Drzewa Składnikowego, aby umożliwić bezproblemową binarną kompatybilność w API i interfejsach.
GIMP chce przejść na GTK4, aby uzyskać lepszą kompatybilność z Waylandem, wsparcie dla HiDPI i czystszy wygląd.
Nieniszcząca edycja jest planowana do wprowadzenia w GIMP-ie 3.2.
Użytkownicy są zachęcani do przejścia na GTK3 lub GTK4, ale opinie są mieszane.
KDE i jego aplikacje są potencjalną alternatywą dla GTK.
Należący do NASA satelita Landsat wykonał zdjęcie innego satelity, wywołując dyskusję wokół technologii i inżynierii satelitarnej.
Użytkownicy dzielili się ciekawostkami na temat różnych satelitów, w tym laserowych satelitów obserwacyjnych i wywiadowczych.
Firmy pracują nad projektami lepszego obrazowania poprzez wysyłanie satelitów bliżej Ziemi.
Maxar Technologies opublikował film pokazujący ich satelitę WorldView-4 robiącego zdjęcia innego satelity na orbicie, z dodanymi wektorami do pozycjonowania.
Niektórzy komentatorzy zauważyli "iskrzące" odbicia spowodowane odblaskową izolacją statku kosmicznego.
Mimo negatywnych komentarzy w mediach społecznościowych, film jest postrzegany jako dowód na rosnącą komercyjną opłacalność obrazowania w kosmosie.
Robienie małych gier za pomocą prostszych narzędzi może zwiększyć szanse na sukces dla nowych deweloperów.
Zmaganie się ze skomplikowanymi silnikami może zniechęcić ludzi do tworzenia gier.
Zakres emocjonalny gry nie determinuje jej jakości.
Małe gry mogą mieć różne definicje sukcesu i ważne jest, aby być wyczulonym na te subtelne emocje, aby uzyskać dobrze zaokrąglone doświadczenie.
Czerp inspirację z różnych źródeł, aby tworzyć wyjątkowe gry.
Wybór formy wpływa na oczekiwania graczy, więc weź to pod uwagę, wybierając silnik i przygotowując się do wydania.
Ukończ swoją grę przed wydaniem i unikaj wydawania gier typu "To Be Continued".
Otrzymywanie informacji zwrotnych od wspierającej społeczności jest ważne.
Skup się na tworzeniu gier, które lubisz i z których jesteś zadowolony, zamiast próbować stworzyć arcydzieło lub coś "wspaniałego".
Autor zachęca czytelników do skupienia się na budowaniu pozytywnych i wspierających społeczności oraz odnajdywaniu twórczego spełnienia w swojej pracy, zamiast popadania w zgorzknienie lub rozczarowanie.
Artykuł omawia sposoby tworzenia dobrych małych gier i unikania perfekcjonizmu, takie jak ustalanie priorytetów i inkubowanie wielu pomysłów na gry.
Podkreśla się znaczenie playtestów i projektowania małych, iteracyjnych wersji gier, a także równoważenia gier pod kątem uczciwości i ograniczania zakresu projektu.
Niektórzy komentujący zauważają, że niektóre gatunki gier mogą być trudne do destylacji w mniejsze gry bez ich fundamentalnej zmiany.
Post podkreśla korzyści płynące z tworzenia małych gier, w tym możliwość zbadania różnych mechanik gry i ograniczeń medium, a także satysfakcję z tworzenia czegoś unikalnego.
Ludzie powinni podchodzić do tworzenia gier z krytycznym smakiem i zrozumieniem medium.
Firefly - Nowy kompilator i runtime dla języków BEAM
Firefly to kompilator i runtime dla języków BEAM, napisany w Rust, umożliwiający kompilację aplikacji Elixirowych ukierunkowanych na WebAssembly
Firefly może kompilować pliki wykonywalne lub biblioteki, które działają jak wydania OTP, ale nie zarządza zależnościami
Firefly składa się z trzech głównych komponentów: Compiler, Libraries i Runtimes, i poświęca niektóre funkcje, aby umożliwić dodatkowe optymalizacje
Do zbudowania Firefly wymagany jest LLVM 15, a przed wprowadzeniem zmian uczestnicy powinni porozumieć się z zespołem głównym
Firefly nie ma na celu zastąpienia BEAM i może nie posiadać wymaganej funkcjonalności, ale oferuje alternatywną implementację Erlang/OTP z unikalnymi cechami
Projekt runtime jest taki sam jak OTP, ale różni się w zależności od użytego backendu codegen, a Firefly ułatwia rozszerzenie runtime o natywne funkcje zaimplementowane w Rust
Firefly był wcześniej nazwany Lumen i jest licencjonowany pod Apache 2.0.
Firefly, nowy kompilator i runtime specjalnie dla języków BEAM, został uruchomiony z naciskiem na kompilację WASI i możliwość budowania samodzielnych binariów skierowanych na różne chipsety.
Jednym z ekscytujących aspektów Firefly jest jego potencjał do efektywnego uruchamiania Elixiru na mikrokontrolerach przy zachowaniu jego ducha współbieżności.
BEAM jest maszyną wirtualną, która obsługuje kilka języków programowania, a zmiana nazwy projektu Lumen na Firefly była wymuszona przez wiele podobnie nazwanych projektów.
Deweloperzy dyskutują nad optymalizacją runtime'u BEAM dla Elixiru, przy czym niektórzy twierdzą, że jest on niezoptymalizowany wokół matematyki.
BEAM runtime jest skoncentrowany na I/O, z wydajnością zaprojektowaną wokół opóźnień, a teraz obsługuje kompilację JIT używając JIT napisanego od podstaw zamiast LLVM.
Firefly pozwala programistom kompilować aplikacje Elixir do celowania w WebAssembly, co jest przydatne do uruchamiania Elixiru na frontendzie pomimo wyzwań związanych z manipulowaniem DOM w środowisku testowym Elixir.
Align Your Latents: Synteza wideo w wysokiej rozdzielczości przy użyciu modeli dyfuzji latentnej
Zespół opracował modele latentnej dyfuzji wideo (Video LDMs) do generowania wideo w wysokiej rozdzielczości, osiągając najnowszą wydajność w rozdzielczości 512 x 1024.
Model wykorzystuje uwagę czasową i konwolucje 3D w celu osiągnięcia precyzyjnie dostrojonej wydajności dekodera dla generowania wysokiej jakości wideo.
Nowe podejście jest również zdolne do generowania tekstu na wideo, co otwiera ekscytujące kierunki dla przyszłego tworzenia treści.
Zespół wykazał, że warstwy czasowe ich metody generalizują się do różnych precyzyjnie dostrojonych LDM-ów tekst-obraz.
Badania zostały zaprezentowane przez Andreasa Blattmanna, Robina Rombacha, Huan Linga, Tima Dockhorna, Seung Wook Kima, Sanję Fidler i Karstena Kreisa na 2023 IEEE Conference on Computer Vision and Pattern Recognition.
Badania te mogą być potencjalnie przydatne w przemyśle filmowym i rozrywkowym.
NaturalSpeech 2, nowy system TTS od Microsoft Research Asia i Microsoft Azure Speech, wykorzystuje model dyfuzji latentnej do syntezy naturalnych głosów o wysokiej ekspresji i silnej zdolności zero-shot.
System przewyższa poprzednie systemy TTS i oferuje wyższą jakość głosu, odporność i podobieństwo prozodii/timbre niż inne systemy TTS.
System wykorzystuje neuronowy kodek audio, kwantyfikatory wektorów resztkowych oraz model dyfuzji uwarunkowany wprowadzonym tekstem, co zwiększa możliwości "zero-shot".
Opracowując tę technologię, Microsoft wykazuje zaangażowanie w przestrzeganie zasad odpowiedzialnej sztucznej inteligencji.
Istnieje możliwość wykorzystania jej w złych celach, takich jak naśladowanie mówcy i podszywanie się pod niego, dlatego też apeluje się do praktyków o nienadużywanie tej technologii.
Ten post podkreśla potrzebę odpowiedzialnego rozwoju i wykorzystania technologii AI oraz znaczenie obrony narzędzi do wykrywania głosów syntetyzowanych przez AI.
Naukowcy opracowali syntezatory mowy i śpiewu typu zero-shot, wzbudzając obawy o potencjalne nadużycia technik spoofingu głosu typu deepfake.
Dyskusja doprowadziła do debaty na temat dostosowania AI, złożoności ludzkich wartości i kwestii etycznych związanych z wkładem danych osobowych do ogromnych zbiorów danych.
Eksperyment pokazuje, że GPT-3 może tworzyć fałszywe głosy, co budzi obawy o rozprzestrzenianie się dezinformacji.
Eksperci omawiają modele uczenia się języków i potencjał uniwersalnych tłumaczy, z obawami dotyczącymi uwierzytelniania tożsamości cyfrowej i cyberprzestępczości.
Debata na temat uwierzytelniania człowieka i SI przez telefon, przy czym dyskusje toczą się również wokół technicznych aspektów uwierzytelniania głosu i technologii syntezy.
NaturalSpeech 2 Microsoftu jest przykładem zerowego uczenia się z potencjałem do nadużyć, co spowodowało oświadczenie etyczne firmy.
FADR izoluje MIDI, perkusję, bas, wokal z pliku audio z możliwością poprawy.
Naukowcy badający modele AI dla głosów operowych i chóralnych.
YourTTS to szybki i wydajny system text-to-speech.
Aplikacje na YC Summer 2023 są otwarte.
Qantas sprowadza Airbusy A380 z pustyni w Kalifornii.
Qantas odzyskał swoje ostatnie Airbusy A380 ze składowiska w Victorville w Kalifornii po prawie 1000 dniach przechowywania z powodu spowodowanego pandemią uziemienia samolotów dalekodystansowych.
Przywrócenie A380 do służby wymaga znacznego wysiłku, w tym 4500 godzin pracy ludzi i wymiany kluczowych części, co doprowadziło do opóźnień w przypadku niektórych linii lotniczych.
Inżynierowie Qantas spędzili dwa miesiące na jednym samolocie na pustyni Mojave, aby ożywić A380, które zostały owinięte, aby chronić się przed wilgocią, kurzem i owadami.
Chociaż Qantas jest bliski przywrócenia swoich A380 do działania, linia lotnicza nie oczekuje, że międzynarodowe loty powrócą do poziomu sprzed pandemii do co najmniej 2024 roku.
Qantas zainwestował duże środki w uruchomienie australijskiego przemysłu paliw lotniczych, jednocześnie walcząc o osiągnięcie celu redukcji emisji - neutralności węglowej do 2050 roku.
Qantas nie ogłosił jeszcze planu wymiany swojej starzejącej się floty A380, ale spodziewa się wydać 5 miliardów dolarów (7,4 miliarda dolarów) na inwestycje we flotę w ciągu najbliższych czterech lat, w tym tuzin A350-1000.