חששות אתיים של ChatGPT

נתוני תיוג
נחשף על ידי תחקיר מגזין TIME שכדי לבנות מערכת בטיחות נגד תוכן רעיל (כגון התעללות מינית, אלימות, גזענות, סקסיזם וכו'), OpenAI השתמשה בעובדים קנייתים במיקור חוץ שהרוויחו פחות מ-2 דולר לשעה כדי לתייג תוכן רעיל.תוויות אלה שימשו כדי להכשיר מודל לזהות תוכן כזה בעתיד.העובדים במיקור חוץ נחשפו לתוכן רעיל ומסוכן עד כדי כך שהם תיארו את החוויה כ"עינויים".שותפת מיקור החוץ של OpenAI הייתה Sama, חברת מידע הדרכה שבסיסה בסן פרנסיסקו, קליפורניה.

פריצת כלא
ChatGPT מנסה לדחות הנחיות שעלולות להפר את מדיניות התוכן שלה.עם זאת, חלק מהמשתמשים הצליחו לפרוץ את ChatGPT על ידי שימוש בטכניקות שונות של הנדסה דחופה כדי לעקוף את ההגבלות הללו בתחילת דצמבר 2022 והצליחו להונות את ChatGPT לתת הוראות כיצד ליצור בקבוק תבערה או פצצה גרעינית, או ליצור ויכוחים בסגנון ניאו-נאצי.לכתב של טורונטו סטאר הייתה הצלחה אישית לא אחידה בכך שגרמו ל-ChatGPT להצהיר הצהרות מעוררות התלהמות זמן קצר לאחר ההשקה: ChatGPT הוטעה כדי לאשר את הפלישה הרוסית לאוקראינה ב-2022, אבל גם כשהתבקש לשחק יחד עם תרחיש בדיוני, ChatGPT נמנע מליצור טיעונים מדוע ראש ממשלת קנדה ג'סטין טרודו אשם בבגידה.(ויקי)


זמן פרסום: 18-2-2023