ספר לחתלתול שלך מה אתה חושב בפנים - אפקט הקופסה השחורה
טכנולוגיה

ספר לחתלתול שלך מה אתה חושב בפנים - אפקט הקופסה השחורה

העובדה שאלגוריתמים מתקדמים של בינה מלאכותית הם כמו קופסה שחורה (1) שזורקת תוצאה מבלי לחשוף כיצד היא נוצרה מדאיגה חלק ומרגיזה אחרים.

בשנת 2015, צוות מחקר בבית החולים מאונט סיני בניו יורק התבקש להשתמש בשיטה זו כדי לנתח מאגר מידע נרחב של חולים מקומיים (2). האוסף העצום הזה מכיל אוקיינוס ​​של מידע על המטופל, תוצאות בדיקות, מרשמים ועוד.

מדענים קראו לתוכנית האנליטית שפותחה במהלך העבודה. הוא התאמן על נתונים של כ-700 אנשים. אנושי, וכאשר נבדק ברישומים חדשים, הוא הוכח כיעיל ביותר בניבוי מחלות. ללא עזרת מומחים אנושיים, הוא גילה דפוסים בתיעוד של בתי החולים המעידים על איזה חולה נמצא בדרך למחלה, כמו סרטן הכבד. לדברי מומחים, היעילות הפרוגנוסטית והאבחונית של המערכת הייתה גבוהה בהרבה מזו של כל שיטות מוכרות אחרות.

2. מערכת בינה מלאכותית רפואית המבוססת על מאגרי מידע של מטופלים

יחד עם זאת, החוקרים שמו לב שזה עובד בצורה מסתורית. התברר, למשל, שהוא אידיאלי עבור הכרה בהפרעות נפשיותכמו סכיזופרניה, שקשה מאוד לרופאים. זה היה מפתיע, במיוחד מכיוון שלאף אחד לא היה מושג איך מערכת הבינה המלאכותית יכולה לראות מחלות נפש כל כך טוב רק על סמך הרשומות הרפואיות של המטופל. כן, המומחים היו מאוד מרוצים מהעזרה של מאבחן מכונות כל כך יעיל, אבל הם יהיו הרבה יותר מרוצים אם הם יבינו איך ה-AI מגיע למסקנותיו.

שכבות של נוירונים מלאכותיים

כבר מההתחלה, כלומר מהרגע שהמושג בינה מלאכותית נודע, היו שתי נקודות מבט על AI. הראשון הציע שזה יהיה הגיוני ביותר לבנות מכונות שחושבות בהתאם לעקרונות ידועים ולהיגיון אנושי, מה שהופך את פעולתן הפנימית לשקופה לכולם. אחרים האמינו שהאינטליגנציה תופיע בקלות רבה יותר אם מכונות ילמדו באמצעות תצפית וניסויים חוזרים ונשנים.

המשמעות האחרונה היא היפוך של תכנות מחשב טיפוסי. במקום שהמתכנת יכתוב פקודות לפתרון בעיה, התוכנה יוצרת אלגוריתם משלו בהתבסס על נתונים לדוגמה והתוצאה הרצויה. שיטות למידת מכונה שהתפתחו מאוחר יותר למערכות הבינה המלאכותית החזקות ביותר המוכרות כיום, פשוט ירדו בדרך של, למעשה, המכונה עצמה מתכנתת.

גישה זו נותרה בשולי מחקר מערכות בינה מלאכותית בשנות ה-60 וה-70. רק בתחילת העשור הקודם, לאחר כמה שינויים ושיפורים חלוציים, רשתות עצביות "עמוקות". החלה להפגין שיפור קיצוני ביכולות התפיסה האוטומטית. 

למידת מכונה עמוקה העניקה למחשבים יכולות יוצאות דופן, כמו היכולת לזהות מילים מדוברות כמעט בדיוק כמו אדם. זו מיומנות מורכבת מכדי לתכנת אותה מבעוד מועד. המכונה חייבת להיות מסוגלת ליצור "תוכנית" משלה על ידי הדרכה על מערכי נתונים ענקיים.

למידה עמוקה שינתה גם את זיהוי התמונות במחשב ושיפרה מאוד את איכות התרגום המכונה. כיום משתמשים בו כדי לקבל כל מיני החלטות מפתח ברפואה, פיננסים, ייצור ועוד.

עם זאת, עם כל זה אתה לא יכול פשוט להסתכל בתוך רשת עצבית עמוקה כדי לראות איך "בפנים" עובד. תהליכי חשיבה ברשת משובצים בהתנהגותם של אלפי נוירונים מדומים, המאורגנים בעשרות או אפילו מאות שכבות הקשורות זו בזו..

כל אחד מהנוירונים בשכבה הראשונה מקבל קלט, כגון עוצמת הפיקסל בתמונה, ולאחר מכן מבצע חישובים לפני הפלט. הם מועברים ברשת מורכבת לנוירונים של השכבה הבאה - וכן הלאה, עד לאות הפלט הסופי. בנוסף, קיים תהליך המכונה התאמת החישובים המבוצעים על ידי נוירונים בודדים כך שרשת האימון תפיק את התוצאה הרצויה.

בדוגמה שצוטטה לעתים קרובות הקשורה לזיהוי תמונות של כלבים, רמות נמוכות יותר של AI מנתחות מאפיינים פשוטים כמו צורה או צבע. הגבוהים יותר מתמודדים עם נושאים מורכבים יותר כמו פרווה או עיניים. רק השכבה העליונה מפגישה את הכל, ומזהה את קבוצת המידע המלאה ככלב.

ניתן ליישם את אותה גישה על סוגים אחרים של קלט המניעים את המכונה ללמוד את עצמה: צלילים המרכיבים מילים בדיבור, אותיות ומילים המרכיבות משפטים בטקסט כתוב, או גלגל הגה, למשל. תנועות הנחוצות לנהיגה ברכב.

המכונית לא מדלגת על כלום.

נעשה ניסיון להסביר מה בדיוק קורה במערכות כאלה. בשנת 2015, חוקרים בגוגל שינו אלגוריתם זיהוי תמונה של למידה עמוקה כך שבמקום לראות אובייקטים בתמונות, הוא יצר או שינה אותם. על ידי הפעלת האלגוריתם לאחור, הם רצו לגלות את המאפיינים שבהם משתמשת התוכנה כדי לזהות, למשל, ציפור או בניין.

ניסויים אלה, הידועים בפומבי בשם הכותרת, יצרו תיאורים מדהימים של (3) חיות גרוטסקיות, מוזרות, נופים ודמויות. על ידי חשיפת חלק מסודות תפיסת המכונה, כמו העובדה שדפוסים מסוימים חוזרים וחוזרים על עצמם, הם גם הראו עד כמה למידת מכונה עמוקה שונה מתפיסה אנושית - למשל, במובן זה שהיא מרחיבה ומשכפלת חפצים שאנו מתעלמים מהם. בתהליך התפיסה שלנו בלי לחשוב. .

3. תמונה שנוצרה בפרויקט

אגב, מצד שני, הניסויים הללו גילו את המסתורין של המנגנונים הקוגניטיביים שלנו. אולי זה בתפיסתנו שישנם מרכיבים שונים בלתי מובנים שגורמים לנו מיד להבין משהו ולהתעלם ממנו, בעוד המכונה חוזרת בסבלנות על איטרציות על אובייקטים "לא חשובים".

בדיקות ומחקרים נוספים בוצעו בניסיון "להבין" את המכונה. ג'ייסון יוסינסקי הוא יצר כלי שמתנהג כמו בדיקה תקועה במוח, מכוון לכל נוירון מלאכותי ומחפש את התמונה שמפעילה אותו בצורה החזקה ביותר. בניסוי האחרון הופיעו תמונות מופשטות כתוצאה מ"הצצה" ברשת על-יד, מה שהפך את התהליכים המתרחשים במערכת למסתוריים עוד יותר.

עם זאת, עבור מדענים רבים, מחקר כזה הוא אי הבנה, כי לדעתם, כדי להבין את המערכת, לזהות את הדפוסים והמנגנונים של מסדר גבוה יותר של קבלת החלטות מורכבות, כל האינטראקציות החישוביות בתוך רשת עצבית עמוקה. זהו מבוך ענק של פונקציות ומשתנים מתמטיים. כרגע זה לא מובן לנו.

המחשב לא מופעל? למה?

מדוע חשוב להבין את מנגנוני קבלת ההחלטות של מערכות בינה מלאכותית מתקדמות? מודלים מתמטיים כבר נמצאים בשימוש כדי לקבוע אילו אסירים יכולים להשתחרר על תנאי, למי ניתן הלוואה ומי יכול לקבל עבודה. המעוניינים ירצו לדעת מדוע התקבלה החלטה זו ולא אחרת, מה הטעמים והמנגנון שלה.

הוא הודה באפריל 2017 ב-MIT Technology Review. טומי יאקולה, פרופסור ב-MIT שעובד על יישומים ללמידת מכונה. -.

יש אפילו עמדה משפטית ומדיניות לפיה היכולת לבחון ולהבין את מנגנון קבלת ההחלטות של מערכות בינה מלאכותית היא זכות אדם בסיסית.

מאז 2018, האיחוד האירופי עובד על דרישה מחברות לספק הסברים ללקוחותיהן לגבי החלטות שמתקבלות על ידי מערכות אוטומטיות. מסתבר שלפעמים זה לא אפשרי גם במערכות שנראות פשוטות יחסית, כמו אפליקציות ואתרים שמשתמשים במדע עמוק כדי להציג מודעות או להמליץ ​​על שירים.

המחשבים שמפעילים את השירותים האלה מתכנתים בעצמם, והם עושים את זה בדרכים שאנחנו לא יכולים להבין... אפילו המהנדסים שיוצרים את האפליקציות האלה לא יכולים להסביר באופן מלא איך זה עובד.

הוספת תגובה