Universitatea din Washington (UW) a dezvoltat un sistem de inteligență artificială numit "Target Speech Hearing", care îi ajută pe utilizatori să se concentreze asupra unui singur vorbitor în medii zgomotoase, uitându-se la el timp de trei până la cinci secunde.
Prezentat la Conferința ACM CHI, acest sistem utilizează învățarea automată pentru a izola și amplifica vocea vorbitorului dorit în timp real, chiar și în timp ce utilizatorul se mișcă.
Aflată în prezent în stadiul de dovadă a conceptului, tehnologia a fost testată pe 21 de subiecți care au raportat o claritate semnificativ îmbunătățită, cu planuri viitoare de extindere la căști și aparate auditive.
Textul explorează strategiile și tehnologiile de îmbunătățire a experiențelor auditive în medii zgomotoase, concentrându-se pe căștile cu inteligență artificială, designul avansat al sunetului și tehnologiile de anulare a zgomotului.
Acesta evidențiază provocările pe care le reprezintă materialele moderne din restaurante care contribuie la zgomot și utilizarea tehnicilor de amortizare a zgomotului, în ciuda problemelor de întreținere și estetice.
Sunt discutate progresele tehnologice, cum ar fi microfoanele direcționale, recunoașterea vorbirii în timp real și filtrarea selectivă a sunetului, precum și preocupările legate de confidențialitate și potențialul abuz.
Fostul membru al consiliului de administrație al OpenAI, Helen Toner, a dezvăluit că Sam Altman a fost înlăturat pentru scurt timp din funcția de director general din cauza multiplelor cazuri de necinste și de ascundere de informații față de consiliu.
Printre exemple se numără faptul că consiliul de administrație a aflat despre lansarea ChatGPT prin intermediul Twitter și că Altman nu și-a dezvăluit interesul financiar în cadrul companiei, alături de acuzațiile de furnizare de informații inexacte privind siguranța și de "abuz psihologic" din partea a doi directori.
Altman a fost repus în funcția de director general mai puțin de o săptămână mai târziu, după ce angajații au amenințat că vor demisiona, iar Microsoft și-a exprimat interesul de a-i angaja echipa; Toner a demisionat la scurt timp după revenirea sa.
Directorul general al OpenAI, Sam Altman, a fost înlăturat pentru scurt timp și apoi reangajat, ceea ce a scos la iveală tensiunile dintre autoritatea consiliului de administrație și influența investitorilor și fondatorilor cheie.
Gestionarea defectuoasă a concedierii lui Altman de către consiliul de administrație a dus la reacții semnificative din partea angajaților și la amenințări cu demisia în masă, subliniind dinamica complexă a guvernanței corporative, influența angajaților și interesele financiare.
Incidentul a declanșat discuții mai ample despre leadershipul în domeniul tehnologiei, implicațiile etice ale unui comportament nemilos și rolul comunicării și al eticii în guvernanța corporativă.
Redirecționarea de la HTTP la HTTPS poate expune date sensibile sau poate permite atacuri de tip Man-In-The-Middle (MITM), în special în cazul API-urilor accesate de software care nu gestionează antetele de securitate.
Tehnici precum HSTS (HTTP Strict Transport Security) și modurile HTTPS-Only îmbunătățesc securitatea, dar s-ar putea să nu fie suficiente pentru API-uri, subliniind necesitatea unei abordări de tip fail-fast pentru a detecta erorile din timp.
Cele mai bune practici ar trebui să fie actualizate pentru a recomanda ca API-urile să respingă în totalitate cererile necriptate și să revoce acreditările API trimise prin conexiuni necriptate pentru a preveni riscurile de securitate.
Discuția pune accentul pe îmbunătățirea securității API prin redirecționarea HTTP către HTTPS și revocarea cheilor API trimise prin HTTP pentru a preveni atacurile Man-in-the-Middle (MITM).
Acesta subliniază importanța gestionării corespunzătoare a cheilor API, a utilizării de hashes, nonces și timestamps semnate pentru autentificare și necesitatea HTTPS pentru integritatea și confidențialitatea datelor.
Conversația critică dependența de autoritățile de certificare și sugerează soluții practice, cum ar fi adresele URL unice sau cheile API pentru un control sigur al accesului în contexte specifice.
Llama3-V este un nou model multimodal bazat pe Llama3, conceput pentru a rivaliza cu modele mai mari precum GPT-4V, dar la un cost semnificativ mai mic (sub 500 de dolari).
Acesta depășește modelul actual de ultimă generație, Llava, cu 10-20% în testele de referință de înțelegere multimodală, utilizând SigLIP pentru încorporarea imaginilor și alinierea simbolurilor vizuale și textuale printr-un bloc de proiecție cu straturi de autoatenție.
Printre optimizările cheie se numără precalcularea încorporărilor de imagini și valorificarea MPS/MLX pentru o instruire eficientă, cu un proces de instruire care implică preinstruirea pe 600 000 de exemple și reglarea fină supravegheată pe 1 milion de exemple.
Articolul compară diferite modele de inteligență artificială multimodală, concentrându-se pe Llama 3-V, care își propune să egaleze performanța GPT-4V, dar este mai mic și mai ieftin.
Acesta evidențiază faptul că modele precum InternVL-1.5 și CogVLM depășesc Llava, cu modele specifice care excelează în sarcini precum OCR (recunoașterea optică a caracterelor) și înțelegerea interfeței grafice cu utilizatorul (GUI).
Utilizatorii discută despre aplicațiile practice, limitările și rentabilitatea acestor modele, inclusiv despre utilizarea GPT-4V în producție pentru sarcini vizuale și despre eficiența instrumentelor moderne de OCR, cum ar fi PaddleOCR și TrOCR.
Pe 29 mai 2024, Mistral AI a lansat Codestral, un model generativ de inteligență artificială cu greutate deschisă pentru generarea de coduri, antrenat pe peste 80 de limbaje de programare.
Codestral are o dimensiune a modelului de 22B și o fereastră de context de 32k, depășind concurenții în teste de referință precum RepoBench și HumanEval.
Disponibil sub licența Mistral AI Non-Production License, Codestral poate fi accesat prin intermediul unui punct final dedicat sau integrat în instrumente precum VSCode și JetBrains, dezvoltatorii lăudând viteza, acuratețea și impactul asupra productivității.
Modelul de cod al Mistral, lansat de mistral.ai, are o licență restrictivă care interzice utilizarea comercială, condițiile de viață și utilizarea internă a companiei, ceea ce limitează aplicațiile sale practice și atrage critici.
Dezbaterea în jurul licenței Mistral scoate în evidență probleme mai largi legate de drepturile de autor și de licențiere a conținutului generat de inteligența artificială, precum și utilizarea abuzivă a termenului "open-source" în domeniul inteligenței artificiale.
Utilizatorii își exprimă frustrarea față de generarea inconsecventă de coduri de inteligență artificială, în special în cazul sarcinilor complexe, și discută despre limitele și capacitățile diferitelor modele de inteligență artificială, inclusiv modelele Meta's Llama și OpenAI's GPT.
Articolul "What We Learned from a Year of Building with LLMs (Part I)" de Eugene Yan și colegii săi explorează progresele rapide și aplicațiile practice ale modelelor lingvistice mari (LLM), abordând în același timp provocările legate de dezvoltarea unor produse de inteligență artificială eficiente.
Lecțiile cheie includ cele mai bune practici în ceea ce privește promptarea, generarea de recuperare augmentată (RAG), ingineria fluxului și evaluarea, cu accent pe tehnici precum promptarea n-shot și promptarea lanțului de gândire.
Articolul oferă, de asemenea, sfaturi operaționale privind gestionarea agenților de inteligență artificială, perfecționarea mesajelor, ajustarea modelelor și reducerea costurilor și a latenței prin intermediul memoriei cache, punând accentul pe evaluările practice și pe abordările centrate pe om.
Informațiile obținute în urma unui an de lucru cu modele lingvistice mari (LLM) evidențiază importanța eșantionării multiple pentru a reduce ratele de halucinație și a generării de justificări înainte de decizii pentru rezultate mai precise.
Articolul discută provocările în evaluarea rezultatelor LLM, impactul temperaturii asupra caracterului aleatoriu al rezultatelor și concepțiile greșite despre eșantionare, împreună cu experiențele de utilizare a unor instrumente precum patchbots și căutarea cu fascicule.
Acesta abordează preocupările din industrie, cum ar fi ratele ridicate de eroare, investițiile bazate pe FOMO și impulsul agresiv al unor companii precum Google de a integra inteligența artificială, în ciuda potențialelor probleme legate de calitatea serviciilor.
Profesorul Kevin Murphy de la Universitatea din Limerick susține că lucrătorii la distanță sunt mai productivi și mai mulțumiți decât cei care lucrează la birou.
Impulsul pentru mandatele de revenire la birou (RTO) după pandemie riscă să piardă talentele de top, deoarece mulți angajați resping acum normele tradiționale de birou.
Directorii ar trebui să ofere motive și stimulente convingătoare pentru a se întoarce la birou, recunoscând schimbarea dinamicii puterii în favoarea angajaților, altfel riscă să piardă talente valoroase în favoarea unor concurenți mai flexibili.
Dezbaterea dintre munca la distanță și mandatele de revenire la birou (RTO) se axează pe flexibilitate, confort și potențiala pierdere a angajaților care preferă munca la distanță.
Pentru unii, naveta oferă o pauză mentală, dar pentru alții prezintă provocări precum poluarea, costurile ridicate și granițele neclare, ceea ce are un impact asupra echilibrului dintre viața profesională și cea privată și asupra creșterii profesionale.
Munca la distanță este considerată mai eficientă și mai durabilă, oferind beneficii precum creșterea timpului petrecut în familie și reducerea emisiilor de carbon, dar poate neglija personalul tânăr și necesită o comunicare clară a beneficiilor RTO.
Proiectul de lege C-26, o lege federală privind securitatea cibernetică din Canada, acordă guvernului puterea de a forța companiile de telecomunicații să instaleze uși de acces în rețelele criptate, ceea ce ar putea compromite securitatea.
Criticii, inclusiv Citizen Lab de la Universitatea din Toronto, susțin că aceste măsuri ar slăbi criptarea 5G și alte caracteristici de securitate, crescând vulnerabilitatea la amenințările cibernetice.
În ciuda avertismentelor experților, proiectul de lege a avansat fără amendamente, contrazicând poziția pro-criptare a Canadei și creând un precedent periculos pentru alte țări.
Guvernul canadian încearcă să obțină autoritatea de a crea porți secrete în rețelele de telecomunicații pentru supraveghere, ocolind controlul legal tradițional, ceea ce ridică probleme semnificative în ceea ce privește viața privată și potențialul de abuz din partea autorităților de aplicare a legii.
Criticii susțin că acest lucru ar putea duce la o monitorizare invazivă asemănătoare practicilor NSA, ceea ce implică dezbateri privind constituția Canadei, "clauza derogatorie" și capacitățile de interceptare legală.
Discuția include exemple istorice de supraveghere, cum ar fi cele din timpul protestelor camionagiilor, precum și teme mai largi legate de depășirea atribuțiilor guvernamentale, de viața privată și de răspunsurile societății la autoritate.
Articolul analizează trei legi fundamentale care contribuie la complexitatea inutilă în ingineria software, în special în sistemele de infrastructură.
Prima lege: Sistemele bine proiectate se transformă în timp în sisteme prost proiectate, din cauza modificărilor continue.
Secunda lege: Complexitatea crește pe măsură ce sistemele de succes prioritizează cota de piață în detrimentul unei bune concepții de abstractizare, ceea ce duce la sisteme greu de modificat.
A treia lege: Nu există o limită superioară pentru complexitatea software-ului, determinată de diversele abilități și filosofii ale dezvoltatorilor, ceea ce duce la proiecte complicate.
Discuția abordează provocările legate de gestionarea complexității software-ului, în special în cazul sistemelor moștenite, precum și compromisurile dintre costuri și calitate, care duc adesea la datorii tehnice.
Acesta subliniază importanța refactorizării incrementale, a menținerii unei culturi inginerești puternice și a distincției între complexitatea esențială și cea accidentală pentru a gestiona eficient software-ul.
Participanții evidențiază necesitatea unei întrețineri continue, impactul unor alegeri de dezvoltare greșite și rolul sprijinului din partea conducerii în justificarea eforturilor de refactorizare.
Michael Lynch a creat TinyPilot la mijlocul anului 2020, un dispozitiv pentru controlul de la distanță al serverelor, care a câștigat rapid popularitate și a devenit o afacere cu venituri anuale de 1 milion de dolari și o echipă de șapte persoane.
Lynch a vândut TinyPilot pentru 600.000 de dolari, obținând 490.803 dolari după cheltuieli, din cauza stresului provocat de gestionarea unei afaceri de hardware și a dorinței de a se întoarce la codare și de a întemeia o familie.
Vânzarea, facilitată de Quiet Light Brokerage, a implicat provocări precum echilibrarea stresului fondatorilor, găsirea unui cumpărător și gestionarea procedurilor de verificare; cumpărătorul a fost Scott, un profesionist în domeniul mass-media corporative.
Michael Lynch și-a vândut afacerea, TinyPilot, și a discutat despre costurile semnificative pe care le-a implicat vânzarea, inclusiv comisioanele brokerilor și taxele juridice, care au reprezentat aproximativ 18% din prețul de vânzare.
Călătoria antreprenorială a lui Lynch a inclus trecerea de la un loc de muncă bine plătit la Google la valorizarea autonomiei și a creativității, subliniind valoarea educațională a antreprenoriatului și criticând accentul pus de industria tehnologică pe remunerarea totală.
Lynch plănuiește să înființeze viitoarele întreprinderi, concentrându-se pe produse educaționale și pe Software as a Service (SaaS), evitând hardware-ul din cauza complexității și a provocărilor pe care le implică.
În noiembrie 2023, consiliul de administrație al OpenAI l-a concediat în mod neașteptat pe directorul general Sam Altman, invocând "minciuna totală" și comportamentul manipulator, care au erodat încrederea.
Printre problemele specifice se numărau proprietatea nedeclarată a lui Altman asupra OpenAI Startup Fund, furnizarea de informații inexacte privind siguranța și crearea unui mediu de lucru toxic.
În ciuda acestor acuzații, presiunile interne și externe, inclusiv sprijinul angajaților și al Microsoft, au dus la repunerea lui Altman în funcție, iar o analiză independentă nu a constatat nicio problemă legată de siguranța produselor sau de operațiunile companiei.
Un fost membru al consiliului de administrație al OpenAI a dezvăluit că Sam Altman a fost demis din cauza necinstei, ceea ce ridică semne de întrebare cu privire la gradul de conștientizare al consiliului în legătură cu lansarea ChatGPT.
Situația a stârnit discuții despre transparența organizațională, supravegherea consiliului de administrație și guvernanța etică, cu comparații cu eșecuri corporative precum Enron.
Există scepticism cu privire la practicile de încredere și siguranță ale OpenAI, cu plecări de angajați și critici la adresa conducerii lui Altman, alături de dezbateri privind competența tehnică și rolul consiliului de administrație.
O scurgere majoră de documente interne ale Google Search a dezvăluit aspecte critice ale algoritmului de clasificare al Google, inclusiv utilizarea clicurilor, a linkurilor, a conținutului, a entităților și a datelor Chrome.
Experții în domeniu Rand Fishkin și Michael King au analizat documentele, dezvăluind 2.596 de module de clasificare, importanța diversității legăturilor, relevanța, clicurile de succes și recunoașterea mărcii.
Documentele dezvăluie, de asemenea, utilizarea de către Google a informațiilor despre autor, autoritatea site-ului și "twiddlers" pentru a ajusta clasamentele, oferind informații valoroase pentru SEO, în ciuda necunoașterii ponderii exacte a factorilor de clasificare.
O scurgere de informații dintr-un document Google Search a declanșat dezbateri privind algoritmul de clasificare și influența programului de anunțuri Google asupra rezultatelor căutării.
Utilizatorii discută despre alternative precum Kagi și search.marginalia.nu, cu recenzii mixte privind personalizarea lui Kagi, orientarea necomercială și problemele legate de spam și de conținutul generat de inteligența artificială.
Conversația evidențiază dorința de a avea motoare de căutare care să acorde prioritate preferințelor utilizatorilor în detrimentul veniturilor din publicitate, abordând manipularea SEO, potențialul modelelor de limbaj de mari dimensiuni (LLM) și preocupările legate de autenticitatea recenziilor online și de criteriile de clasificare ale Google.
ChatTTS este un model text-to-speech (TTS) optimizat pentru dialog, care acceptă atât limba engleză, cât și chineză și a fost antrenat pe baza a peste 100.000 de ore de date.
Versiunea open-source de pe HuggingFace include un model preformat de 40.000 de ore, care excelează în sinteza naturală și expresivă a vorbirii cu un control prozodic fin.
Modelul este destinat exclusiv utilizării în mediul academic, iar în viitor se intenționează să se deschidă la sursă caracteristici suplimentare și să se îmbunătățească stabilitatea.
Discuția evidențiază dezvoltarea și performanța modelelor TTS, cum ar fi ChatTTS și Piper TTS, menționând probleme precum procesarea lentă și provocările legate de calitatea vocii.
Utilizatorii subliniază necesitatea unui TTS de înaltă calitate în mai multe limbi și dezbat eficiența vocilor umane față de vocile automate în cărțile audio.
Există o critică a afirmațiilor înșelătoare privind "open-source" în proiectele TTS și un apel pentru o listă cuprinzătoare de modele și date TTS cu adevărat open-source.
O scurgere de 2.500 de pagini de documente interne ale Google, împărtășită de expertul SEO Rand Fishkin, ar putea dezvălui discrepanțe între declarațiile publice ale Google și practicile sale reale în ceea ce privește algoritmii de căutare.
Documentele sugerează utilizarea datelor Chrome în clasamente și în urmărirea informațiilor despre autor, punând la îndoială afirmațiile anterioare ale Google și declanșând o dezbatere privind transparența companiei.
Google nu a făcut niciun comentariu cu privire la legitimitatea documentelor, iar incidentul evidențiază preocupările constante legate de natura opacă a operațiunilor de căutare ale Google în contextul controlului antitrust.
O scurgere de informații din documentația algoritmului de căutare al Google a dezvăluit posibile discrepanțe între declarațiile publice ale Google și practicile reale ale acesteia.
Scurgerea de informații sugerează că este posibil ca reprezentanții Google să fi discreditat constatările exacte ale comunităților de marketing, tehnologie și jurnalism, ridicând probleme etice legate de manipularea SEO.
Discuțiile juridice de pe GitHub dezbat semnificația și legalitatea scurgerii de informații, cu opinii diferite privind impactul acesteia asupra statutului de secret comercial și a protecției drepturilor de autor.