2025-01-28
אנחנו מחזירים את פבל
תגובות
Pebble מתעוררת לחיים מחדש עם תמיכה מגוגל, תוך התמקדות בחוזקות המקוריות שלה כמו יכולת פריצה, חיי סוללה ארוכים ושירות כהרחבה לטלפון. התחייה שואפת לשמור על אופיו הקוד הפתוח של Pebble ולהימנע ממנויים חובה לענן, מה שמושך האקרים וחובבי טכנולוגיה. הקהילה נרגשת מהחזרה של פבל, ומשקפת את התכונות הייחודיות שלה ואת השפעתה על טכנולוגיית הלבישה.
Google מפרסמת את מערכת ההפעלה Pebble כקוד פתוח
תגובות
Google הפכה את מערכת ההפעלה Pebble לקוד פתוח, מה שיצר התלהבות בקרב מעריצים ומפתחים לפיתוחים פוטנציאליים חדשים בטכנולוגיית שעונים חכמים. השחרור ב-GitHub אינו כולל רכיבים קנייניים כמו גופני מערכת וערימת ה-Bluetooth, ולכן לא ניתן לקמפל אותו בצורתו הנוכחית. מהלך זה נתפס כמחווה חיובית מצד גוגל, המיוחסת למאמצים פנימיים, ונחשב כצעד לקראת החייאת מערכת האקולוגית של שעון החכם פבל.
להפעיל DeepSeek R1 Dynamic 1.58-bit
תגובות
DeepSeek R1 Dynamic 1.58-bit משיג הפחתה של 80% בגודל ופועל במהירות של 140 טוקנים לשנייה באמצעות שני H100s, אך מהירותו האיטית ובעיות החזרה מעלות שאלות לגבי מעשיותו. כימות דינמי מסייע בביצועים, אך חששות לגבי נגישות, עלות וטענות עלות האימון של המודל ממשיכים להתקיים, מה שמוביל לבחינה מדוקדקת. המודל משפיע באופן ניכר על השוק, עם מאמצים לשכפל את תוצאותיו, אם כי ביצועיו נתונים לדיון בהשוואה למודלים גדולים יותר.
תוצאות מבטיחות מ-DeepSeek R1 עבור קוד
בקשת משיכה (PR) על ידי Xuan-Son Nguyen עבור llama.cpp משפרת את מהירות WebAssembly (WASM) באמצעות הוראות Single Instruction, Multiple Data (SIMD), עם תרומות משמעותיות מ-DeekSeek-R1. ה-PR כולל מפת מודלים דינמית שנבנית מתגובות API, מה שמסיר את הצורך בגרסאות מקודדות מראש ומדגים חדשנות בפיתוח תוספים. בלוג האינטרנט של סיימון וויליסון מכסה גם נושאים עדכניים כמו פרויקטים בקוד פתוח, ממשק ה-API של ציטוטים של Anthropic, ופרויקטים של מודלים לשוניים גדולים (LLM), מה שמצביע על התמקדות בדיונים על טכנולוגיה מתקדמת.
תגובות
DeepSeek R1 מדגים את הפוטנציאל של בינה מלאכותית בקידוד על ידי כתיבת 99% מבקשת משיכה (PR) עבור llama.cpp, מה שמדגיש את התפקיד ההולך וגדל של בינה מלאכותית בפיתוח תוכנה. כלים כמו aider אחראים כעת ליצירת 70-82% מהקוד החדש בגרסאות, מה שמצביע על עלייה משמעותית בפרודוקטיביות באמצעות סיוע בינה מלאכותית. על אף ההתקדמות הללו, בינה מלאכותית עדיין דורשת פיקוח אנושי לפתרון בעיות מורכבות ושילוב עם בסיסי קוד קיימים, מה שמרמז על שינוי בדינמיקת העבודה ודרישות הכישורים בתעשייה.
המאויר DeepSeek-R1
DeepSeek-R1 הוא מודל AI חדש ששם דגש על יכולות הסקת מסקנות משופרות באמצעות תהליך אימון מובנה בשלושה שלבים: מידול שפה, כוונון עדין בפיקוח (SFT) וכוונון העדפות. המודל משלב שרשראות ארוכות של נתוני הסקת מסקנות, מודל הסקת מסקנות ביניים ולמידת חיזוק בקנה מידה גדול (RL), ומצטיין במשימות הסקת מסקנות על ידי יצירת אסימוני חשיבה. הוא משתמש בארכיטקטורת תערובת מומחים, המאפשרת לו להתמודד ביעילות עם משימות הסקת מסקנות מורכבות, ומהווה התקדמות משמעותית בעיצוב מודלים של AI.
תגובות
DeepSeek-R1 מעורר דיון בשל ביצועיו ויעילותו הכלכלית בהשוואה למודלים כמו GPT ו-Gemini, כאשר חלק מהמשתמשים מציינים בעיות טיפוסיות של מודלים לשוניים גדולים (LLM). המודל בולט בדרישות החישוב הנמוכות שלו ובטבעו כקוד פתוח, מה שעשוי לשבש את נוף הבינה המלאכותית ולהפוך את פיתוח הבינה המלאכותית לנגיש יותר. פותח על ידי קרן גידור סינית, DeepSeek-R1 מעלה שאלות לגבי נתוני האימון שלו והשלכות גיאופוליטיות, למרות ביקורות מעורבות על יכולות הקידוד שלו.
למידת מכונה בייצור (קורס CMU)
אוניברסיטת קרנגי מלון מציעה קורס בשם "למידת מכונה בייצור/הנדסת בינה מלאכותית" לאביב 2025, המתמקד בבנייה, פריסה ותחזוקה של מוצרים תוכנתיים המופעלים על ידי למידת מכונה. הקורס מדגיש פרקטיקות בינה מלאכותית אחראיות ו-MLOps (תפעול למידת מכונה), ומכסה את כל מחזור החיים מהאב טיפוס ועד לייצור. הוא מיועד לסטודנטים עם כישורי מדע נתונים ותכנות בסיסי, וכולל הרצאות, מעבדות ופרויקט קבוצתי, עם משאבים זמינים ב-GitHub.
תגובות
הקורס של אוניברסיטת CMU על למידת מכונה בייצור מציג כלים מעשיים כמו Kafka, Docker, Kubernetes, ו-Jenkins, עם דגש על MLOps (תפעול למידת מכונה), הסבריות, הוגנות וניטור. זה משמש כגשר בין למידת מכונה למערכות ייצור, אם כי יש הרואים בכך רמה התחלתית וממוקדת יותר באינטגרציה של כלים מאשר במיומנות. עולות חששות לגבי הרלוונטיות לטווח הארוך של כלים מסוימים והדגש המוגבל של הקורס על איכות הנתונים, אך הוא נחשב לנקודת כניסה חדשה עבור סטודנטים למדעי המחשב.
Open-R1: שחזור פתוח של DeepSeek-R1
Open-R1 הוא יוזמה לשכפל את DeepSeek-R1, מודל הסקה הדומה ל-o1 של OpenAI, עם דגש על שקיפות ושיתוף פעולה בקוד פתוח. הפרויקט שואף לשחזר את מערכי הנתונים וצינור האימון של DeepSeek-R1, אשר כרגע אינם נחשפים, באמצעות למידת חיזוק (RL) ללא פיקוח אנושי. Open-R1 מעודד תרומות קהילתיות להרחבת יישומי המודל מעבר למתמטיקה, כולל תחומים כמו קידוד ורפואה.
תגובות
Open-R1 הוא יוזמה שמטרתה לשחזר את מודל DeepSeek-R1 תוך שימוש בעקרונות קוד פתוח, אם כי הוא עדיין לא מודל ממשי. הדיון מדגיש את האתגרים והיתרונות הפוטנציאליים של שחזור מודלים של בינה מלאכותית בתקציב מוגבל, כמו גם את ההשפעה של בינה מלאכותית על חינוך והשלכות רחבות יותר על החברה. השיחה גם מדגישה את ההתרגשות סביב ההתקדמות הטכנולוגית ואת תפקיד התנועה של קוד פתוח בהפיכת הבינה המלאכותית לנגישה יותר לקהל רחב יותר.
העתיד של Rebble
תגובות
דיון זה מדגיש את הנוסטלגיה לשעוני Pebble החכמים, שהוערכו בזכות המסכים הדומים ל-e-ink וחיי הסוללה הארוכים שלהם, ותוהה מדוע טכנולוגיה דומה לא אומצה בצורה רחבה יותר. יש עניין בפוטנציאל לחומרה חדשה מ-Rebble, פרויקט מונע על ידי הקהילה, ובאופי הקוד הפתוח של פרויקטים קשורים לשעונים חכמים. אלטרנטיבות כמו Watchy ו-PineTime מוזכרות, כאשר משתמשים מציינים את האתגרים התוכנתיים העומדים בפני תחום השעונים החכמים בקוד פתוח.
המיתוס של האלפא: כיצד זאבים בשבי הובילו אותנו שולל
תגובות
המושג 'זכר אלפא' בזאבים, שהתבסס במקור על מחקרים בשבי, הופרך; להקות זאבים בטבע מתפקדות יותר כמו יחידות משפחתיות מאשר מבנים היררכיים. על אף שהופרכה, רעיון ה'אלפא' ממשיך להתקיים בשל משיכתו בסביבות תחרותיות, כמו עמק הסיליקון, והתאמתו לצרכים חברתיים ופסיכולוגיים מסוימים. אמונה מתמשכת במיתוס ה"אלפא" מדגישה כיצד נרטיבים יכולים להשפיע על תפיסתנו את הדינמיקה החברתית, אפילו כאשר הם מבוססים על הנחות שגויות.
כלי ה-go של גרסה 1.24 הוא אחד מהתוספות הטובות ביותר לאקוסיסטם בשנים האחרונות
גרסה 1.24 של Go מציגה פקודת go tool
חדשה והנחיית tool
ב-go.mod
, המשפרת את ניהול הכלים בפרויקטים באקוסיסטם של Go. עדכון זה מטפל בבעיות בתבנית tools.go
, כגון השפעות על הביצועים וניפוח עץ התלויות, על ידי מתן אפשרות לניהול כלים יעיל יותר והפחתת תלויות מיותרות. בעוד שפקודת go tool
משפרת את הביצועים על ידי שמירת קריאות go run
במטמון, ישנן חששות לגבי תלות בכלים שמטופלות כעקיפות, מה שעלול להוביל להתנגשויות בתלות.
תגובות
ההצגה של 'go tool' ב-Go 1.24 הובילה לדיונים על השפעתו על ניהול התלויות, עם חששות לגבי מיזוג תלויות של כלים ופרויקטים שעלול לגרום לקונפליקטים. מבקרים מציעים חלופות כמו קבצי מודולים נפרדים או שימוש בכלים כמו Nix לשיפור השליטה בגרסאות. תומכי הגישה של Go טוענים שהיא מציעה פשטות ויעילות, ומשקפת את האתגרים הרחבים יותר בניהול תלות בשפות תכנות.
סמכתי על LLM, עכשיו אני ביום הרביעי של פרויקט אחר הצהריים
המחבר יצא לפרויקט בשם Deskthang, מתוך כוונה ליצור מכשיר שולחני באמצעות Raspberry Pi Pico, תצוגת LCD ונורות LED RGB, תוך כדי בדיקת יכולות הבינה המלאכותית. כלי AI כמו ChatGPT ו-Claude סייעו בתחילה אך בסופו של דבר הובילו ליישום עם באגים, שגרם לבעיות כמו קונפליקטים בזיכרון וקריסת נתונים. לקחים מרכזיים שנלמדו כוללים הכרה בבינה מלאכותית ככלי ולא כטייס משנה, הבנת הערך של חיכוך וטעויות בתהליך הלמידה, וחשיבות הסבלנות על פני ביטחון יתר.
תגובות
מודלים לשוניים גדולים (LLMs) יכולים להיות מועילים למשימות פשוטות אך עשויים להאריך את לוחות הזמנים של פרויקטים אם מסתמכים עליהם לבעיות מורכבות ללא פיקוח מתאים. הם יעילים בסינתזה של מידע אך עשויים להתקשות בנושאים נישתיים או בידע חדש, מה שמחייב את המשתמשים להיות בעלי יסודות חזקים וניסיון. משתמשים חייבים לשמור על שליטה על ידי מתן הנחיות ברורות ובחינה ביקורתית של התוצרים כדי לנצל את הפוטנציאל המלא של מודלים לשוניים גדולים (LLMs) ביעילות.
אנבידיה מאבדת כמעט 600 מיליארד דולר בשווי השוק
נפח השוק של Nvidia ספג הפסד היסטורי של כמעט 600 מיליארד דולר, כאשר המניות ירדו ב-17% בשל חששות מתחרות ממעבדת הבינה המלאכותית הסינית DeepSeek. המכירה ההמונית השפיעה על מגזר הטכנולוגיה הרחב בארה"ב, וגרמה לירידות בחברות כמו דל ואורקל, ותרמה לירידה של 3.1% במדד הנאסד"ק. מודל הבינה המלאכותית החדש של DeepSeek, שפותח באמצעות שבבי H800 של Nvidia, הגביר את החששות מתחרות, מה שהשפיע על מניות Nvidia למרות הרווחים הקודמים שלה, והפחית את השווי הנקי של המנכ"ל ג'נסן הואנג ב-21 מיליארד דולר.
תגובות
נפח השוק של Nvidia חווה ירידה משמעותית של כמעט 600 מיליארד דולר, מה שהוביל לדיונים על הערכת השווי של החברה והאם היא הייתה מוערכת יתר על המידה. על אף תגובת השוק, המעבדים הגרפיים של Nvidia ממשיכים להיות חיוניים למשימות הקשורות לבינה מלאכותית, מה שמדגיש את חשיבותם בתעשיית הטכנולוגיה. המיקוד של התקשורת בהפסדים כספיים גדולים מבלי להתחשב באינפלציה יכול להטעות, אך הירידה של Nvidia בולטת אפילו בקרב תאגידים גדולים.
Janus Pro 1B פועל ב-100% מקומית בדפדפן על WebGPU
תגובות
Janus Pro 1B הוא מודל שפועל מקומית בדפדפן באמצעות WebGPU, ומציג את היכולת להפעיל מודלים של בינה מלאכותית בסביבת דפדפן. למרות שמספר הפרמטרים שלו נמוך, מה שמגביל את יכולותיו, המודל יכול לפעול על כרטיסי גרפיקה בעלי ביצועים נמוכים, מה שמדגיש את הנגישות שלו. בעוד שתוצאות יצירת התמונות אינן עקביות, היכולת להפעיל מודלים כאלה מקומית בדפדפן היא התקדמות טכנולוגית משמעותית, אם כי כרגע הוא אינו תומך במכשירים ניידים.
חוקרים מברקלי משכפלים את הטכנולוגיה המרכזית של DeepSeek R1 בעלות של 30 דולר בלבד: שינוי קטן
תגובות
חוקרים מברקלי הצליחו לשכפל את הטכנולוגיה המרכזית של DeepSeek R1 בעלות של 30 דולר בלבד, תוך התמקדות במשימות ספציפיות כמו משחק המשחק Countdown. החידוש כולל שימוש בלמידת חיזוק, סוג של למידת מכונה שבה סוכן לומד על ידי אינטראקציה עם סביבתו, כדי לשפר מודלים של הסקה, אם כי השימוש בו מוגבל לתחומים עם פתרונות שניתן לאמת. הדיון מדגיש את הפוטנציאל לשיפור עצמי של בינה מלאכותית ואת השלכותיו על פיתוח עתידי של בינה מלאכותית, למרות הביקורות על כותרת המאמר המטעה והיעדר קישורים למקורות מתאימים.