לוגו מגזין הפיננסי
חיפוש
סגור את תיבת החיפוש
חיפוש
סגור את תיבת החיפוש

הטעות המביכה של גוגל: גוגל מודה כי איבדה שליטה על טכנולוגית התמונות הבוססת AI שלה

גוגל התנצלה (בערך) על טעות מביכה נוספת השבוע בטכנולוגיית ייצור תמונות ב-AI המכילה גיוון של תמונות מגוחכות המתעלמות מן הקונטקסט ההיסטורי. בעוד שהבעיה התחתונה מובנת גוגל מאשימה את המודל שהפך להיות רגיש יתר על המידה. אבל כנראה שהמודל לא מחליט בעצמו חבר’ה, בואו נראה ע״פ Gemini איך נראים האבות המייסדים של ארה״ב.

תגיות
גוגל gemini
הטעות המביכה של גוגל: גוגל מודה כי איבדה שליטה על טכנולוגית התמונות הבוססת על AI שלה

לאחרונה, אנשים ביקשו ליצור תמונות מסיטואציות מסוימות מהעבר או ביקשותוצאות מגוחכות מהפלטפורמה. לדוגמה, ארבעת האבות המייסדים אשר ידועים כבעלי עבדים לבנים עובדו לקבוצה מגוונת מבחינה אתנית, כולל אנשים מכל הגוונים.

תקרית מביכה זו שוכפלה והופצה בכל רחבי האינטרנט. כמובן שהתפתח דיון ממשוך בנושא שונות, גיוון, שוויון ושילוב (נכון לעכשיו בצורה מקומית ומינימלית), ונתפסה בידי פרשנים כראייה לוירוס שנכנס גם אל תוך המגזר הטכנולוגי שהיה ליברלי.

ארגון ה-DEI כעס מאוד והביע דאגה לאזרחים. זאת האמריקה של ביידן! 

אך כל מי שמכיר את הטכנולוגיה יוכל לספר לך ובעוד גוגל מסביר זאת בליווי פוסט בעל התנצלות מועטה, בעיה זו היתה התוצאה לנטיות הגיוניות בעת ביצוע אימונה.

התמונות שחזרו כאשר ביקשו מGemini ציורים של המייסדים האמריקאים

לדוגמה, נניח ואתם רוצים להשתמש בג’ימיני ליצירת קמפיין שיווקי ואתם מבקשים ממנה לייצר 10 תמונות של אדם ההולך עם כלב בפארק. בגלל שאנו לא מפרטים כיצד נראה האדם, הכלב או הפארק התוכנה תבחר את מה שהיא מכירה. ובמקרים רבים זאת התוצאה של אימון התוכנה והמידע העלול לכול בתוכו נטיות רבות.

אילו סוגי אנשים, כלבים או פארקים הכי נפוצים במאגר התמונות שלה? העובדה כי אנשים לבנים מוצגים בתדירות גבוהה יותר בתמונות אלו תיצור לתוכנה ברירת מחדל של אנשים לבנים במקרה ולא פירטתם את נראות של האדם.

גוגל אומרת כי מאחר ומשתמשיה מגיעים מכל קצוות העולם היא רוצה שהתוכנה תעבוד מצוין עבור כולם. אם תבקשו תמונה של שחקן פוטבול או מישהו הולך עם כלב כנראה תרצו לקבל מגוון רחב של אנשים. כנראה שלא תרצו אנשים ממוצא אתני מסוים.

אין דבר רע בלקבל תמונה של אדם לבן הולך עם גולדן רטריבר בפארק עירוני, אך אם תבקשו 10 אנשים וכולם יהיו לבנים עם גולדן רטריבר בפארק עירוני בעוד אתם גרים במרוקו, כאשר שם האנשים, הכלבים והפארקים נראים אחרת ולכן זו אינה התוצאה הרצויה.  

זוהי בעיה נפוצה ואין פתרון אחד פשוט. גוגל טוענת כי המערכת עצמה הפכה אותה לכזאת אך הם אלו המייצרים אותה, זה כמו לשבור זכוכית ובמקום לומר “הפלנו אותה” נאמר “היא נפלה”.

תגיות

אהבתם את הכתבה? שתפו

כתבות אחרונות

בינה מלאכותית ו-AI

חדשות רכב

מודעה