לדלג לתוכן

אתיקה של בינה מלאכותית

מתוך ויקיפדיה, האנציקלופדיה החופשית
אריסטו: אתיקה, פוליטיקה וכלכלה

אתיקה של בינה מלאכותית עוסקת במחשבים שיכולים לעשות שיקולים מוסריים. זהו תחום מחקר בבינה מלאכותית. אדם יכול להעניק למחשב את הקוד האתי ישירות באמצעות כתיבת קוד, או בעקיפין על ידי קריאה, או שהמחשב יסיק את הקוד הזה מתוך רשימה של חוקים קיימים

[1].

בעוד שהתקשורת עם בני אדם היא פשוטה וצפויה יחסית, התקשורת בין מערכות אוטונומיות לומדות יכולה להוביל לשגיאות גדולות. אלגוריתמים עשויים ללמוד זה מזה ולהפיק תובנות שאינן תמיד תואמות את כוונת המתכנתים המקורית.

הסוד האפל של הבינה המלאכותית, TheMarker, רותי לוי 10 בינואר 2019

תְּחוּם הדַּעַת שעוסק באתיקה של הבינה המלאכותית, במיוחד כשמדובר בבינה מלאכותית חזקה שונה באופן מהותי מתחום הדעת שעוסק באתיקה של טכנולוגיות לא-קוגניטיביות. להלן ההבדלים בין שני התחומים האלה[2]:

  • אפילו אם המתכנתים עושים הכל נכון, ייתכן שלא ניתן יהיה לחזות את ההתנהגות הספציפית של מערכת הבינה המלאכותית, מלבד העובדה שההתנהגות הזאת תהיה בטיחותית;
  • בדיקת בטיחות המערכת הופכת לאתגר גדול ביותר, שכן עלינו לברר מה בדיוק המערכת מנסה לעשות ולא רק שהיא מתנהלת באופן בטיחותי בכל המצבים;
  • ההכרה האתית הופכת להיות נושא שהמהנדסים עוסקים בו.

אלגוריתמים והשפעתם על חיי היומיום

[עריכת קוד מקור | עריכה]
ערך מורחב – אלגוריתם

אלגוריתם הוא תהליך מתמטי לפתרון בעיה באמצעות מספר סופי של שלבים. בעולם המחשבים, אלגוריתם הוא מערך ההוראות שמגדיר לא רק מה צריך לעשות אלא באיזה סדר לעשות את הפעולות[3].

אלגוריתמים משמשים בתחומים רבים בחיי יומיום, למשל - אלגוריתם למיון כביסה[4]:

  1. הרם בגד מערימת הבגדים
  2. בחן את הצבע
  3. שורת תנאי: אם הבגד צבעוני הנח אותו בערימה מספר 1
  4. אם הבגד שחור הנח אותו בערימה מספר 2
  5. אם הבגד לבן הנח אותו בערימה מספר 3
  6. חזור על הפעולה כל עוד יש בגדים בערימה

אלגוריתמים מצויים בכל פעולות המחשבים והטלפונים. רובם מורכבים משרשרות מסובכות וארוכות של הוראות, עד כדי כך שקשה לעקוב אחר ההגיון שלהן ולא תמיד ניתן להסביר את פעולותיהן.

דוגמה[5]:

כאשר אנחנו קונים מוצר או מזמינים שירות באינטרנט מערכות מחליטות אם לאשר את הרכישה שלנו בהתבסס על אלגוריתמים לומדים. האלגוריתמים האלה לומדים אלו אוכלוסיות נוטות יותר לבצע הונאות אשראי ואלו לא. הם יוצרים הכללה של אוכלוסיות שנוטות יותר לבצע הונאות, ומונעים מהן לבצע עסקאות. כמו שאמר לי אנליסט הונאות בכיר באחת מחברות הקניות הגדולות בעולם: "היו מקרים שהמערכת החליטה לא למכור למדינה שלמה, לניגריה למשל". לכן, ייתכן שגם אזרח ניגרי תמים לא יוכל לקנות חולצה עם הדפס של להקת הפאנק האהובה עליו, כי "האלגוריתם לא מאשר".

תחום רשתות הנוירונים המלאכותיות תופס חלק גדל והולך של ה"בינה מלאכותית". מכיוון שרשתות אלו לא מממשות אלגוריתמים דטרמיניסטיים ולמעשה, אין "ידע הרמטי" לגבי האופן שבו הן מצליחות לבצע משימות מורכבות, לא תמיד ניתן להסביר איך הן הגיעו לתוצאה כזו ולא לתוצאה אחרת. תחום זה מהווה תחום מחקר מהותי ואולם לא ברור אם יהיה לו פתרון. ככל שהשימוש ברשתות הנוירונים המלאכותיות הופך להיות נפוץ יותר, התופעה ולפיה הן "מקדדות" לעצמן את העיוותים הקוגניטיביים-חברתיים הקיימים, הולכת ומחריפה. נושא זה במיוחד משמעותי בכל הקשור ללמידה מונחית כאשר "התנהגותה" של הרשת נקבעת לפי בסיס הנתונים ששימש לאימון שלה. כך למשל, אם הרשת אומנה לתת תחזית לגבי סיכוייו של סטודנט מסוים לסיים את התואר באוניברסיטה, על בסיס רשימת כל הסטודנטים בשני העשורים האחרונים באוניברסיטה מסוימת - במקרים בהם יש יותר סטודנטים ממין זכר, הרשת באופן אוטומטי, תיטה לתת תחזיות מוטות "לטובת" המין הגברי ו"תופעה" כזו אינה רצויה חברתית[דרושה הבהרה].

בינה מלאכותית שוחרת-טובת-האדם

[עריכת קוד מקור | עריכה]

יש בבינה המלאכותית תכונות חיוביות לרוב[6]:

  • פיתוח כלי תחבורה אוטונומיים שעתידים לייעל את התחבורה לסוגיה ולצמצם את תאונות הדרכים.
  • דמוקרטיזציה והחבבנות, כלומר הפצת מידע, נתונים וכוח מחשוב לכל דורש, חינם ובאופן נגיש.
  • קידום המחקר בפיזיקה ובמתמטיקה.
  • שיפור השרות הרפואי והוזלתו.

פיי-פיי לי היא פרופסור למדעי המחשב באוניברסיטת סטנפורד וכיום מנהלת שותפה של המכון לבינה מלאכותית ממוקדת-אדם בסטנפורד. לדבריה המכון מתמקד בכיווני מחקר חדשניים[7]:

  • פיתוח לימודי בינה מלאכותית שניתנת להבנה (לפרשנות) בידי אדם (Explainability AI) - כלומר יצירת תוכנות שמסבירות את האלגוריתמים ומתאימות אותם לאופן החשיבה של בני אדם.
  • פיתוח שיעמיק לחקור לא רק נתונים אלא גם אינטואיציה, ידע, אינטליגנציה אנושית.
  • שילוב של דיסציפלינות שונות במחקר הבינה המלאכותית - פילוסופים, היסטוריונים, אנשי מדעי המדינה, כלכלנים, אנשי אתיקה, אנשי משפט, חוקרי מוח, פסיכולוגים וחוקרים בתחומים רבים נוספים - כדי להבין את ההשפעה שלה על חברת בני האדם מכל הבחינות.

בינה מלאכותית ברמת האדם היחיד

[עריכת קוד מקור | עריכה]

לדברי יובל נוח הררי[7] בינה מלאכותית יכולה לאפשר תקיפת-מוח (brain hacking), כאשר יותר ויותר החלטות בחיים שלנו ייעשו על ידי אלגוריתמים, שכן הם יכירו את האדם טוב יותר מההכרות שלו את עצמו. לדבריו, כדי למנוע זאת עליך להכיר את עצמך יותר טוב, כך שיהיה יותר קשה לרמות אותך באמצעות מכונות. הררי מציע לפתח מערכות שמעניקות הגנה לאנשים ולא לממשלות ולא לחברות מסחריות. כל אחד מאיתנו צריכים מכונה כזאת – בת לווייה - שתפקידה להכיר את הבעלים שלה באופן אישי ביותר ולהגן עליו.

הסכנה שבבינה המלאכותית מצד תעשיית המידע

[עריכת קוד מקור | עריכה]

יוחאי בנקלר מתאר[8] כיצד חברות המידע - גוגל, פייסבוק, אמזון, מיקרוסופט, אפל - מפתחות מוצרים של בינה מלאכותית, כשהאינטרס שלהן הוא השגת רווחים. גם תחום כלכלת תשומת הלב מעיד על כך שאלגוריתמים בהכרח אינם תואמים את האינטרס הציבורי כאשר הם מיועדים אך ורק לייצר רווח לחברה המסחרית.

בתוך הקופסה השחורה של האלגוריתמים יכולה להתקיים אפליה בלתי נראית ובלתי ניתנת לתיאור. כיוון שהנתונים נצברו לאורך השנים ובשל העובדה שהם משקפים אי-שוויון חברתי, קיימת אפשרות סבירה שנתונים אלה ינציחו מצב של אי-צדק שלא תהיה דרך לפענח את מקורו. לדוגמה, מערכות שחוזות עבריינות חוזרת עלולות לשלב שיטור נוקשה במיוחד בקהילות של שחורים. דוגמה נוספת: מערכות שמדרגות הצלחה של מועמדים לתפקיד כלשהו עלולות להפלות על בסיס מגדר או גיל. תופעה זו מחריפה ככל שתפוצת רשתות הנוירונים המלאכותיות עולה, בכלל, ונושא הלמידה מונחית בפרט.

כלכלת תשומת הלב עוסקת בהגדלת הרווחים של חברות המידע באמצעות יצירת התמכרות של הצרכנים[9].

הסכנה שבבינה המלאכותית בתחום המדיני

[עריכת קוד מקור | עריכה]

יובל נוח הררי מזהיר מפני שני סוגים של דיסטופיות כתוצאה מפיתוחים בתחום הבינה המלאכותית[7]. אחת – מעקב קפיטליסטיאנ שבו אלגוריתמים יעשו עבורנו לא רק החלטות כגון מה לקנות או איפה לאכול אלא החלטות חשובות כגון איפה לעבוד, עם מי להתחתן ולמי להצביע. והשנייה - משטר טוטליטרי, שמבוסס על מערכת פיקוח שעוקבת ומדווחת אחרי כל אזרח כל הזמן. הררי, יחד עם 1,000 חוקרי בינה מלאכותית נוספים, בהם אילון מאסק וסטיב ווזניאק (ממייסדי אפל), חתם בחודש מרץ 2023 על מכתב הקורא להשהות את פיתוחי הבינה המלאכותית המתקדמים יותר ממודל השפה GPT-4, אשר שוחרר כשבועיים קודם לפרסום המכתב, למשך שישה חודשים. זאת, בשל דאגות הנוגעות לאובדן שליטה ביכולתה של הבינה המלאכותית, ולהיעדר הרגולציה בתחום זה[10].

בתחום היחסים בין מדינות קיימת סכנה של האצת מרוץ החימוש, מאחר שיותר ויותר מדינות מגיעות להבנה שבינה מלאכותית היא האמצעי להשיג שליטה במאה ה-21 וכולן ממהרות לפתח אלגוריתמים מורכבים שיכולים להיות זדוניים.

דרכי הגנה מפני איומי הבינה המלאכותית

[עריכת קוד מקור | עריכה]
  1. נדרשת השקעה ציבורית מוגברת במחקר עצמאי בתחום האתיקה של הבינה המלאכותית[8].
  2. יש צורך בשיתוף פעולה בינלאומי, כדי להגביר את האמון בין ארצות ועמים[7].
  3. סטודנטים לתכנות צריכים ללמוד קורסים באתיקה[7].[11]
  4. יש לחשוף לציבור את הנתונים שנמצאים בידי החברות המסחריות[8].
  5. ארגונים הפועלים על מנת להבטיח כי מערכות של אינטליגנציה מלאכותית יתנהלו בהוגנות ויועילו לחברה חייבים להיות ממומנים על ידי הציבור, בכפוף לביקורת עמיתים ושקופים לחברה האזרחית[8].

עם עליית תפוצתה של הטכנולוגיה, החלו מספר גורמים בינלאומיים, ביניהם אונסק"ו, לקדם קווים מנחים לקביעת תקנות בינלאומיות לשימוש ראוי בבינה מלאכותית[12].

בשנת 2021 סין הייתה למדינה הראשונה בעולם שפרסמה תקנות אתיקה הנוגעות לשימוש בבינה מלאכותית[13], זאת כאשר השימוש של סין בבינה מלאכותית נחשב במערב לכזה שאינו תואם את ערכי החירות של הדמוקרטיות הליברליות[12], ופעילותה של סין בתחום זכויות האדם, כמו הפעלת מערכת אשראי חברתי, סותרות את המתווים הבינלאומיים לשימוש ראוי בבינה מלאכותית, מתווים עליהם חתומה גם סין עצמה[14].

על פי הפרסומים בסין, מטרתן של התקנות לאפשר לגולשים, בכל פעם שאמורה לפעול מולם מערכת של בינה מלאכותית, לבחור באופן אקטיבי האם להפעיל או לבטל אותה. כלומר, על ספק השירות להציע במקביל גם אפשרות שאינה מבוססת על בינה מלאכותית שתהייה נגישה לגולשים שיבחרו בכך. ההנחיות בסין נשענות על שישה עקרונות בסיס להפעלת AI: אמינות, שליטה, שיפור ההוויה לבני אדם, קידום צדק ובטיחות ושיפור המוסר[13]. עם זאת, נושא האתיקה בסין מורכב, מכיוון שבמקרים שונים גישתה של סין, שבאופן כללי אינה נוטה לכבד את זכותם לפרטיות של אזרחיה, סייעה להתפתחות תחום הבינה במלאכותית במדינה תוך גישה להיקפי מידע שאין בנמצא במדינות אחרות, דוגמת מסד נתונים רחב של צילומי וידאו עם טכנולוגיה של זיהוי תווי פנים[15].

בשנת 2022 פרסמה המחלקה המייעצת לנשיא ארצות-הברית בנושאי מדע וטכנולוגיה (The Office of Science and Technology Policy (OSTP)) את "המתווה למגילת זכויות בבינה מלאכותית – הפעלת מערכות אוטומטיות עבור העם האמריקאי" (The Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People)[16]. המתווה מציע קווי מתאר לפיתוח מדיניות ופרקטיקות להגנה על זכויות אזרחיות ולקידום ערכים דמוקרטיים בבנייה, פיתוח וממשל של מערכות אוטומטיות העשויות להשפיע על זכויות הציבור, על הזדמנויות, או על גישה לצרכים חיוניים[17].

ארגון הבריאות העולמי פרסם בינואר 2024 מסמך הוראות באשר לשימושים רפואיים בבינה מלאכותית.[18]

המסמך כולל המלצות לממשלות, לחברות טכנולוגיה ולספקי שירותי בריאות כדי להבטיח ולהגן על בריאות האוכלוסייה. סביבות בינה מלאכותית- LMMs - יכולות לקלוט נתונים מסוג מסוים, למשל טקסט, סרטונים ותמונות, וליצור מהם פלט מסוג אחר. למשל לקלוט תמונה וליצור ממנה טקסט. עד התקופה האחרונה הייתה יכולת כזאת רק לבני אדם. כיום המחשב יכול לחקות תקשורת אנושית ולבצע משימות שלא יועדו לו מלכתחילה. לפי המסמך המדובר אפשרויות אלה אומצו מהר יותר מכל יישום צרכני אחר בהיסטוריה, עם מספר פלטפורמות - כמו ChatGPT, Bard.

ההנחיות החדשות של ארגון הבריאות העולמי מתארות חמישה יישומים רחבים של בינה מלאכותית מסוג זה בתחום הבריאות:

  • אבחון וטיפול קליני, כגון מענה לשאילתות כתובות של מטופלים;
  • חקירת תסמינים וטיפול בהתאם לממצאי החקירה;
  • משימות פקידותיות וניהוליות, כגון תיעוד וסיכום ביקורי חולים;
  • לימודי רפואה וסיעוד, לרבות מפגשי מטופלים מדומים;
  • מחקר מדעי ופיתוח תרופות, כולל זיהוי תרכובות חדשות.

עם זאת ישנם סיכונים בתחום הזה, כגון הפקת איבחונים שגויים, לא מדויקים, מוטים או חלקיים, שעלולים להזיק לאנשים המשתמשים במידע לקבלת החלטות בריאותיות. יתר על כן, ניתן להכשיר את ה-LMM תוך שימוש בנתונים באיכות ירודה או מוטים, בין אם לפי גזע, מוצא אתני, מוצא, מין, זהות מגדרית או גיל.

בדצמבר 2023 התפרסם מסמך עקרונות מדיניות, רגולציה ואתיקה בתחום הבינה המלאכותית 2023[19].

ב -30.10.2022, משרד החדשנות, מדע וטכנולוגיה פרסם "מצפן" להתייחסות הציבור. המסמך מתייחס לאסדרה ואתיקה בנושא בינה מלאכותית. במסמך יש כמה וכמה פריצות דרך ובכללן ההחלטה שלא תהיה חקיקה ראשית רוחבית - אלא קריאה לרגולטורים השונים לאסדר את הנושא, כל אחד בתחום אחריותו. במסמך יש גם סקירה מקיפה של מסמכים מקבילים בעולם והפניות לחומרי קריאה חשובים בתחום[20]. המסמך, בין השאר, מתאר שישה עקרונות בסיסיים:

  • בינה מלאכותית תשמש לקידום צמיחה, פיתוח בר קיימא והמובילות הישראלית בתחום החדשנות - שימוש אחראי בבינה מלאכותית מהימנה הוא אמצעי לעודד צמיחה, פיתוח בר-קיימא, רווחה חברתית וקידום המובילות הישראלית בתחום החדשנות.
  • האדם במרכז: כיבוד זכויות יסוד ואינטרסים ציבוריים - פיתוח בינה מלאכותית, או שימוש בה, ייעשו תוך כיבוד שלטון החוק, זכויות יסוד ואינטרסים ציבורים ובפרט תוך שמירה על כבוד האדם ופרטיות.
  • שוויון ומניעת אפליה פסולה - בפיתוח ושימוש בבינה מלאכותית יובאו בחשבון הצורך בשוויון, גיוון, החשש להטיה במערכות בינה מלאכותית והסיכון לאפליה פסולה כנגד יחידים או קבוצות.
  • שקיפות והסברתיות - בפיתוח בינה מלאכותית ושימוש בה, יובאו בחשבון הצורך ליידע את מי שבא במגע עם בינה מלאכותית או מושפע מפעילותה והצורך במתן הסבר להחלטתה או לאופן שבו פעלה, בין היתר בשים לב למידת השפעתה, השלכותיה על מי שמושפע ממנה והאפשרויות הטכנולוגיות הזמינות.
  • אמינות, עמידות אבטחה ובטיחות - בפיתוח בינה מלאכותית ושימוש בה, יובא בחשבון הצורך בכך שמערכות בינה מלאכותית תהיינה אמינות, מאובטחות בטיחותיות לאורך כל מחזור חייהן, כך שבתנאי שימוש רגילים, שימוש צפוי או שימוש שגוי או תנאים מסוכנים אחרים - יפעלו כראוי ולא יהוו סיכון בטיחותי בלתי סביר. לשם כך יש לנקוט אמצעים סבירים בהתאם לתפיסות מקצועיות מקובלות לצמצם סיכוני בטיחות ואבטחת מידע בכל מחזור החיים של מערכות בינה מלאכותית.
  • אחריותיות - מפתחי בינה מלאכותית, מפעיליה או המשתמשים בה יגלו אחריות לתפקודה התקין, ולקיום העקרונות האחרים בפעילותם, בין היתר בשים לב לתפיסות ניהול סיכונים מקובלות ולאפשרויות הטכנולוגיות הזמינות.

בקהילה האירופית

[עריכת קוד מקור | עריכה]

הפרלמנט האירופי פרסם ב-12 בספטמבר 2023 הוראה כללית לבינה מלאכותית אמינה ואלה עיקריה[21]:

  • אמצעי אבטחה מוסכמים בתחום הבינה המלאכותית הכללית (החזקה);
  • הגבלת השימוש במערכות זיהוי ביומטריות על ידי רשויות אכיפת החוק;
  • איסורים על קיום מערכת אשראי חברתי ובינה מלאכותית המשמשוח כדי לתמרן או לנצל נקודות חולשה של משתמשים;
  • זכותם של צרכנים להגיש תלונות ולקבל הסברים ניתנים להבנה;
  • שיעורי קנסות באחוז משתנה מההכנסות, החל מ-7.5 מיליון אירו ועד 35 מיליון אירו.

לפי קווי היסוד של נציבות האיחוד האירופי לבינה מלאכותית הראויה לאמון יש שלושה מאפיינים שצריכים להתקיים לאורך כל מחזור החיים שלה[22]: עליה להיות חוקית - לכבד את כל החוקים והתקנות הרלוונטיים; עליה להיות אתית - לכבד עקרונות וערכים אתיים; עליה להיות איתנה, הן מבחינה טכנית והן מבחינת התחשבות בסביבה החברתית בה היא פועלת.

לקריאה נוספת

[עריכת קוד מקור | עריכה]
  • שושנה זובוף: The Age of Surveillance Capitalism - The Fight for a Human Future at the New Frontier of Power, 2019
  • Cathy O'Neil, Weapons of Math Destruction How Big Data Increases Inequality and Threatens Democracy, 2016

קישורים חיצוניים

[עריכת קוד מקור | עריכה]

הערות שוליים

[עריכת קוד מקור | עריכה]
  1. ^ Artificial Intelligence בתוך Stanford Encyclopedia of Philosophy
  2. ^ The Ethics of Artificial Intelligence מאת ניק בוסטרום ואליעזר יודקובסקי
  3. ^ Algorithm
  4. ^ הגר בוחבוט, מה זה אלגוריתם?, באתר ynet, 23 במרץ 2018
  5. ^ אתר למנויים בלבד יאיר בן דוד, השמרנים האמריקאים לא גזענים - יש להם מוסר אחר, באתר הארץ, 17 באוגוסט 2017
  6. ^ רועי צזנה, כוח מניע שלישי: הבינה המלאכותית, בתוך: השולטים בעתיד, ירושלים: כנרת, 2017
  7. ^ 1 2 3 4 5 Fei-Fei Li & Yuval Noah Harari in Conversation - The Coming AI Upheaval, סרטון באתר יוטיוב
  8. ^ 1 2 3 4 Don’t let industry write the rules for AI
  9. ^ Vikram R. Bhargava, Manuel Velasquez, Ethics of the Attention Economy: The Problem of Social Media Addiction, Business Ethics Quarterly 31, 2021-07, עמ' 321–359 doi: 10.1017/beq.2020.32
  10. ^ עידן בן טובים, אילון מאסק, סטיב ווזניאק ויובל נח הררי קוראים: עצרו את פיתוחי ה-AI, באתר גיקטיים, ‏2023-03-29
  11. ^ אתר למנויים בלבד רותי לוי, הסוד האפל של הבינה המלאכותית, באתר TheMarker‏, 10 בינואר 2019
  12. ^ 1 2 Joshua P. Meltzer and Cameron F. Kerry, Strengthening international cooperation on artificial intelligence, מכון ברוקינגס, ‏February 17, 2021
  13. ^ 1 2 רפאל קאהאן, סין מודיעה על חוקי אתיקה לשימוש בבינה מלאכותית - הראשונים מסוגם בעולם, באתר כלכליסט, 4 באוקטובר 2021
  14. ^ MELISSA HEIKKILÄ, China backs UN pledge to ban (its own) social scoring, פוליטיקו, ‏November 23, 2021
  15. ^ Daitian Li, Tony W. Tong, and Yangao Xiao, Is China Emerging as the Global Leader in AI?, Harvard Business Review
  16. ^ Blueprint for an AI Bill of Rights | OSTP, The White House (באנגלית אמריקאית)
  17. ^ עמיר כהנא ודפנה דרור-שפוליאנסקי, זכויות אדם בבינה מלאכותית? על המתווה האמריקאי למגילת זכויות בבינה מלאכותית ומשמעותו, באתר משפט ועסקים, ‏18/5/2023
  18. ^ Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models, www.who.int (באנגלית)
  19. ^ עקרונות מדיניות, רגולציה ואתיקה בתחום, באתר משרד החדשנות, המדע והטכנולוגיה, ‏דצמבר 2023
  20. ^ הפניה למסמך באתר הממשלה, המשרד לחדשנות, מדע וטכנולוגיה
  21. ^ Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI | News | European Parliament, www.europarl.europa.eu, ‏2023-09-12 (באנגלית)
  22. ^ Ethics guidelines for trustworthy AI בהוצאת European Commission