ההצהרה נמסרה ביום חמישי האחרון (13).
בחודש שעבר, אלפי מומחי טכנולוגיה מתקדמים, כולל Elon Musk וסטיב ווזניאק, חתמו על מכתב פתוח הקורא להפסקה של שישה חודשים באימון מערכות AI מתקדמות יותר מ-GPT-4.
פִּרסוּם
המכתב מדגיש את החששות הגוברים לגבי המירוץ לפיתוח בינה מלאכותית יותר ויותר והסיכונים שהדבר מציב לחברה. בעוד שמערכות AI עכשוויות כמו GPT-4 כבר יכולות להתחרות בבני אדם במשימות כלליות, המכתב מזהיר מפני הטיית מידע אפשרית, אוטומציה של עבודה והסיכון לאיבוד שליטה על הציוויליזציה האנושית.
אלטמן הסכים עם כמה היבטים של המכתב הפתוח, במיוחד לגבי הצורך להגביר את יכולות האבטחה בפיתוח AI. הוא הצהיר כי ה OpenAI נקט באמצעי אבטחה נרחבים בעת אימון GPT-4, כולל ביקורות חיצוניות ובדיקות אבטחה.
"אנחנו עושים דברים אחרים חוץ מ-GPT-4 שלדעתי יש להם כל מיני בעיות אבטחה שחשוב לטפל בהן ונשארו לגמרי מחוץ למכתב", אמר אלטמן.
עם זאת, הוא לא הסכים עם ההפסקה הכספית המוצעת על פיתוח בינה מלאכותית וציין את היעדר הספציפיות הטכנית במכתב. אלטמן גם הפריך את הטענה כי OpenAI אימן את GPT-5, תוך שימת דגש על החשיבות של הערכת אבטחה וניטור מדויקים של AI.
פִּרסוּם
עוד הסביר כי המטרה של OpenAI היא לעודד מעורבות גלובלית עם AI, להניע אנשים ומוסדות לשדרג או להתאים מערכות קיימות כדי ליצור את העתיד הרצוי.
לאחרונה דיווחנו כאן על Newsverse זֶה OpenAI הכריזה על שורה של יוזמות כדי להפוך את הכלי לבטוח יותר. לחברה ישpromeשלך לערוך בדיקות יסודיות, לבקש משוב ממומחים חיצוניים ולשתף פעולה עם ממשלות כדי לפתח תקנות אפקטיביות.
ראה גם: