האם הבינה המלאכותית מתקדמת כל כך מהר, שיום אחד היא תעלה בחוכמתה על בני האדם? אילון מאסק, מנכ"ל טוויטר, מפרסם אזהרה חדשה בנושא. הנה הפרטים.
– מה שקורה הוא שהם מאמנים את הבינה המלאכותית לשקר.
– כן…
– זה גרוע.
– לשקר? כן, זה ממש נכון ומונע מידע.
– כן, לשקר! ולהגיב לכמה דברים לא להגיב לדברים אחרים.
בריאיון ל"חדשות פוקס", בתוכנית הלילה של טאקר קרסון, אמר אילון מאסק שהמתכנתים מלמדים את הבינה המלאכותית לשקר. הוא טוען שזה מסוכן יותר מאשר תכנון כושל של מטוס.
"אבל זה לא טריוויאלי כי יש לזה פוטנציאל של הרס הציוויליזציה".
בחודש שעבר מאסק ואחרים פרסמו מכתב גלוי הקורא להשהות את פיתוח הבינה המלאכותית למשך 6 חודשים כדי לשקול את הסיכונים שלה. זמן קצר לפני כן, תמכה מיקרוסופט בחברת OpenAI שחשפה את הדור הרביעי של GPT שלה, שהוא המשך של צ'אטבוט הבינה המלאכותית הנפוץ — Chat GPT. צ'אט GPT מדהים את המשתמשים ביכולתו לנהל שיחות כמו עם בן אנוש וביכולתו ליצור תוכן.
"כעת השאלה היא כיצד בינה מלאכותית תעצב מחדש את האינטרנט".
מסרגל הכלים של גוגל ל-Ernie, סרגל הכלים של ביידו, ענקי הטכנולוגיה דוהרים להשיק אפליקציות דומות. כלי תקשורת מכווית חשף את המגיש הווירטואלי הראשון שלו, אבל מומחים רואים בכך מלכודת אדירה.
"הטכנולוגיה הזו היא טובה מאוד מאוד בעיקר ביצירת סיפורי חדשות מזויפים. בסופו של דבר, הטכנולוגיה עוסקת בהפקת טקסט שנשמע סביר מאוד ואחת הדרכים שבהן אתה יכול להשתמש בו, אם אתה חסר מצפון, היא ליצור תעשייה של חדשות מזויפות".
דוגמה אחת היא התמונות של עימות בדיוני בין הנשיא לשעבר, דונלד טראמפ ובין משטרת ניו יורק התמונות נוצרו על ידי כלים של בינה מלאכותית ופורסמו בטוויטר. כמה ממשלות החמירו את התקנות בהקשר זה, במסגרת כללים מחמירים להגנת מידע של האיחוד האירופי, חסמה איטליה את Chat GPT באופן זמני לאחר פריצת מידע.
"ראשית, אין בסיס חוקי לאיסוף נתונים מהאינטרנט ללא הסכמה. ושנית, לא בטוח שהתוצאות יהיו מדויקות ונכונות ולכן זה עשוי לתת תוצאות לא מדויקות אודות אנשים".
בריטניה פרסמה מאמר המתאר את גישתה. המחוקקים באיחוד האירופי מתבוננים ב-7 עיניים על קבלתם של חוקי AI גורפים.
"אנחנו צריכים רגולציה פוטנציאלית. אנחנו אכן צריכים. אנשים מוציאים את המוצרים האלה לשוק, עלינו להיות זהירים לגבי איך הם מוציאים אותם ומה שהפרסומת עשתה היה טוב וגם אתה יודע שזה לא יכול להיות ניסיון בשבילנו כמשתמשים אנחנו חייבים להיות זהירים ולוודא שאנחנו לא נותנים אמון במערכות".
גם הבית הלבן בודק אמצעים חזקים יותר כדי לבחון את הבטיחות של כלי בינה מלאכותית לפני שהם יוצאים לשוק.
NTD חדשות | הנבחרים | מדע וטכנולוגיה |
• לעוד תכנים ועדכונים הרשמו לערוץ הטלגרם שלנו: לחצו כאן
• מצאתם טעות? יש לכם שאלה? תגובה? פנו אלינו דרך הטלגרם או דרך המייל