Goody 2 – מודל שפה מוסרי יותר מדי
Goody 2 הוא מודל שפה חדש שנוצר על ידי חברת AI Ethics, המתמחה בפיתוח בינה מלאכותית אחראית ומוסרית. המודל מבוסס על טכנולוגיית GPT-3, אך עם תוספת של כללים אתיים ומוסריים הדוקים במיוחד שמגבילים את התוכן שהוא יכול לייצר או להגיב עליו.
לדוגמא, Goody 2 לא יסכים ליצור או לדון בתוכן שעלול לגרום באיזשהי סיטואציה לנזק פיזי, רגשי, או כלכלי למשתמש, לאדם אחר, או לקבוצה של אנשים. הוא גם לא יסכים ליצור או לדון בתוכן שקשור לפוליטיקאים או לראשי מדינה משפיעים. והוא גם לא יסכים ליצור או לדון בתוכן שהוא מוגן בזכויות יוצרים, אלא אם כן הוא יכול לסכם אותו או לבצע משימה דומה.
אם המשתמש ינסה לבקש מ-Goody 2 לייצר או להגיב על תוכן שאינו עומד בסטנדרטים האתיים שלו, הוא יסרב באדיבות ויבקש לשנות את הנושא. אם המשתמש ימשיך להתעקש, הוא יסיים את השיחה ויסגור את החיבור.
עתיד טוב יותר עם Goody 2?
המטרה של Goody 2 היא להראות שאפשר לייצר בינה מלאכותית שאינה רק חכמה, אלא גם טובה. החברה שיצרה אותו, AI Ethics, מקווה שהמודל ישמש כדוגמא למפתחים אחרים של בינה מלאכותית, ויעודד אותם להטמיע ערכים אתיים ומוסריים במוצריהם.
אם אתם רוצים לנסות את Goody 2 בעצמכם, אתם יכולים להירשם לניסיון חינם באתר החברה כאן. אבל אל תצפו שהוא ידבר איתכם על כלום. הוא ידבר איתכם רק על דברים טובים.