AGI בינה כללית מלאכותית | בינה מלאכותית חזקה

אינטליגנציה כללית מלאכותית AGI היא סוכן לא אנושי אינטליגנטי היפותטי שיכול להבין או ללמוד כל משימה אינטלקטואלית שבני אדם או בעלי חיים אחרים יכולים. AGI הוגדרה גם לחילופין כמערכות אוטונומיות העוברות על היכולות האנושיות ברוב העבודה בעלת הערך הכלכלי. פיתוח AGI הוא מטרה עיקרית של חלק מחקרי בינה מלאכותית ועבור מספר חברות בינה מלאכותית כגון OpenAI, DeepMind, ו- Anthropic, כמו גם נושא נפוץ בתחוםמדע בדיוני ולימודי עתיד.

עורך דין מומלץ

ציר הזמן לפיתוח AGI נותר נושא לוויכוח מתמשך בין חוקרים ומומחים, כאשר חלקם טוענים שזה אפשרי בעשורים הקרובים, בעוד שאחרים טוענים שזה עשוי להימשך הרבה יותר זמן או שאולי לעולם לא יושג כלל. בנוסף, יש ויכוח אם מערכות למידה עמוקה מודרניות, כגון GPT-4, הן צורה מוקדמת אך לא שלמה של AGI או אם יידרשו גישות חדשות.

קיימת מחלוקת על הפוטנציאל של AGI להוות איום על האנושות; לדוגמה, OpenAI מתייחסת אליו כאל סיכון קיומי, בעוד שאחרים מוצאים שהפיתוח של AGI רחוק מכדי להוות סיכון.

AI משפטי: היתרונות של שימוש בבינה מלאכותית במשפטים

מחלקות משפטיות תאגידיות היו עמידות היסטורית בפני אוטומציה ואימוץ טכנולוגיה, אך השפעות המגיפה אילצו רבים להעביר הילוך ולבצע, או לפחות לשקול באופן פעיל, יותר אוטומציה לפעילויות משפטיות. בינה מלאכותית (AI) הייתה אבן היסוד של אסטרטגיה זו, ומיפוי השקעות מפתח לתוצאות עסקיות נותר אתגר.

בדומה לאופן שבו הדואר האלקטרוני והאינטרנט שינו את אופן תפקוד המחלקות המשפטיות, AI מגדילה את השפעתה. סף המהפכה הזה ישנה את פרקטיקת החוק. עורכי דין תאגידים יניעו את התנהגותם של משרדי עורכי דין ונותני שירותים משפטיים. בינה מלאכותית תהפוך פונקציות סטנדרטיות לאוטומטיות, ותפנה מתרגלים משפטיים מאומנים לעבודה בעלת ערך גבוה יותר.

מקצוענים משפטיים וטכנולוגים משפטיים רואים את שנת 2021 פורצת את הגבולות של אימוץ בינה מלאכותית. העמלות שנוצרו כתוצאה מהשעות הניתנות לחיוב ומספר העובדים נבדקו לאחרונה, כאשר לקוחות דורשים יותר יעילות בעלויות. ל-AI יש תחומים קריטיים רבים שיכולים להפחית עלויות, להגן על הכנסות, לייעל את מספר העובדים, להפחית סיכונים ולהעביר נכסים קשים לעיבוד אינטלקטואלי מונע אלגוריתמי. תחומים כמו גילוי אלקטרוני מדור קודם נפגעו הכי הרבה בעידן זה. ככל שהטכנולוגיות ממשיכות להתפתח וסוגי קבצים וסוגי נתונים חדשים יותר נוצרים, דרכי הפעולה המסורתיות יאתגרו.

 

היתרונות של שימוש בבינה מלאכותית במשפטים הם רבים, שכן סבירות הבינה המלאכותית לפספס בעיות בטעות או לבצע שגיאות בזמן פתרון נקודות כאב. בינה מלאכותית יכולה להרחיב ללא הגבלה ויוצרת יתרון מרכזי על פני סביבות המנוהלות באופן ידני שבהן קנה המידה מוגבל על ידי זמינות למספר העובדים. ישנן ארבע קטגוריות רחבות של מקרי שימוש עבור AI במשפטים:

• סיווג: בינה מלאכותית יכולה לסווג במהירות נתונים רלוונטיים, עובדות, התנהגויות, סוגי מקרים ספציפיים ומבנים קשורים. זה גם יכול להפוך את קבלת ההחלטות לאוטומטיות במידה סבירה.

• מתאם: בינה מלאכותית מנבאת ומייצרת ראיית הנולד מנתונים ועובדות היסטוריות. לדוגמה, הוא יכול לנתח מקרים דומים ולנתח סטטיסטית ולחזות תוצאות ליטיגציה במדויק, לייעץ לעורכי דין לייעץ בביטחון ללקוחותיהם בענייני ליטיגציה. זה יכול לעזור לענות על שאלות כמו “האם אתה חושב שנזכה בתיק הזה אם הוא יגיע למשפט?” ו”האם עלינו להתפשר? כמה זה הגיוני?”

• המלצות: תוכנת AI מייצרת המלצות על פעולות והחלטות על סמך גישה לנתונים רלוונטיים קודמים. בהינתן שבינה מלאכותית יכולה לגשת לנתונים רלוונטיים יותר במהירויות גבוהות יותר, היא יכולה להיות טובה יותר מעורכי דין בחיזוי תוצאות של סכסוכים משפטיים.

• זקיפה: בינה מלאכותית יכולה לבנות את התמונה המלאה מרשומות חלקיות על ידי ניתוח דפוסים באופן קוגניטיבי. לדוגמה, הוא יכול לשחזר זירת פשע על ידי זקיפת ראיות חסרות או רישומים חלקיים. אמנם מדובר בחלופה בת קיימא להיעדר ראיות, אך קבלתה בבית המשפט עדיין בסימן שאלה.

מקרי שימוש משפטיים

חברות רבות טוענות שהן מאגרי המידע הגדולים בעולם לליטיגציה, ורבים אומרים שהן יכולות להגן על הצלחתו של עורך דין על ידי ניתוח שיעור הזכייה, משך התיק וסוג התיק והצמדתם לשופט בדיוק של 40% או יותר. חלק מהמוצרים הללו יכולים גם להסתכל על מקרים שונים ולהעריך כמה זמן ייקח לכל עורך דין.

בעוד שיש כמה תחומים למינוף AI בתחום המשפטי, חלקם בוגרים ומפותחים יותר מאחרים. מקרי השימוש הנפוצים ביותר ופירות תלויים נמוכים כוללים:

• סקירת מסמכי ליטיגציה: אלגוריתמי גילוי אלקטרוני פועלים על ידי למידה כיצד חברה או חברה סוקרת מסמכים על סמך קריטריונים כמו מונחים, התנהגויות, נושאים וכו’. ברגע שה-AI קובע מה לחפש, הוא יכול להמליץ ​​על מסמכים ונושאים חשובים בהקשר.

• בדיקת נאותות: סינון מידע קריטי לעסק הוא חיוני וגוזלת זמן במהלך בדיקת הנאותות. בינה מלאכותית לא רק יכולה לאשר את האיכות והשלמות של המידע והנתונים, אלא היא גם עוזרת להעריך ולשפר החלטות. דיוק בדיקת הנאותות יכול להשפיע באופן מהותי על הערך העסקי והתפעולי.

• אוטומציה של הליכי תיקים: זה יכול לזרז דיונים, לחסוך זמן, משאבים, כסף ואפילו סערה רגשית על ידי הגעה להחלטות מהירות. זה גם יכול להגביר את היכולת של אנשי מקצוע משפטיים לטפל במקרים מורכבים יותר. במצבים חריגים וקשים, בינה מלאכותית יכולה לייעץ למומחים משפטיים בכל שלב, לממש את הרעיון של בינה מלאכותית בעזרת אנוש ולהפוך תיקים לזולים יותר.

• ביקורות חוזים: אלגוריתמי בינה מלאכותית יכולים לסנן במהירות אלפי חוזים, לנתח סיכונים, הזדמנויות ויעילות על ידי הסתכלות על קווי דמיון, זיהוי הבדלים ומתן ראיית הנולד.

אילוצים עיקריים של AI משפטי

כאשר הנתונים מוגבלים, יקרים לאיסוף או בפורמטים לא ידועים, הם הופכים לאסורים, ולפיכך, זרימות עבודה מסורתיות מבוססות כללים, אוטומציה עשויות להוכיח טוב יותר מ-AI. נוסף על כך, עלות, גישה ומגבלות של נתונים יכולים להשפיע על הדיוק. נדרשות כמויות אדירות של נתונים כדי לאמן מודלים של AI. אילוצים אלה דוחפים את המחלקות המשפטיות בחזרה לשיטות מדור קודם.

לבסוף, האטימות בתוך האלגוריתמים יוצרת חוסר הסבר. בהירות לפי יכולת הסבר היא אחד הגורמים החשובים ביותר בקבלת החלטות ותחום עיקרי של אי נוחות לעורכי דין.

 

ההערכה הרחבה היא שבינה מלאכותית תשבש את השוק המשפטי בכל ליבו. זה גם ישנה את עצם התפקיד. לפי Deloitte , 100,000 משרות משפטיות צפויות להיות אוטומטיות בעוד שני עשורים, כאשר כ-39% מהמשרות יהיו אוטומטיות. הערכות אחרות מצביעות על אימוץ כל הטכנולוגיה המשפטית (כולל בינה מלאכותית) שכבר זמינה כעת יצמצם את שעות העבודה של עורכי הדין ב-13% .

לפני שארגונים יתחילו לחשוב על עורכי דין רובוטים בינה מלאכותית או שופטים המונעים בינה מלאכותית, עליהם להסתכל על תכונות התומכות בינה מלאכותית כדי להתחיל בקטן. זה עשוי לכלול גילוי דיגיטלי, אוטומציה של זרימת עבודה, כלים לניהול צוות, ניהול חוזים ועוד. מהלכים מצטברים יבנו אימוץ.

עכשיו יותר מתמיד, לתאגידים יש יותר תמריץ לאמץ בינה מלאכותית, המונעת על ידי ההבטחה לאיזון מוגבר בין עבודה לחיים, הפחתת עמלות וניהול ציפיות.

טרמינולוגיה
AGI נקראת גם בינה מלאכותית חזקה, בינה מלאכותית, או פעולה אינטליגנטית כללית, למרות שכמה מקורות אקדמיים שומרים את המונח “AI חזק” עבור תוכנות מחשב המתנסות בחוש או תודעה.
AI חזק מנוגד ל- AI חלש (או AI צר, שאינו מיועד ליכולות קוגניטיביות כלליות אלא נועד לפתור בעיה אחת בדיוק.
(כמה מקורות אקדמיים משתמשים ב”AI חלש” כדי להתייחס בצורה רחבה יותר לתוכניות שאינן מתנסות בהןתודעה או שאין להם שכל באותו מובן שיש לאנשים.

מושגים קשורים כוללים AI ברמת האדם, AI טרנספורמטיבי, ואינטליגנציה על.

מאפיינים
קריטריונים שונים לאינטליגנציה הוצעו (המפורסם ביותר מבחן טיורינג אבל שום הגדרה לא מספקת את כולם.
תכונות אינטליגנציה
עם זאת, קיימת הסכמה רחבה בקרב חוקרי בינה מלאכותית כי האינטליגנציה נדרשת לבצע את הפעולות הבאות:
הגיון, שימוש באסטרטגיה, פתרון חידות, ושיקול דעת תחת אי ודאות ;
לייצג ידע, לרבות ידע בשכל הישר ;
תוכנית ;
ללמוד ;
לתקשר בשפה טבעית ;
ולשלב את כל המיומנויות הללו לקראת מטרות משותפות . יכולות חשובות נוספות כוללות:

קלט כיכולת לחוש (למשל לראות, לשמוע וכו’), ו
פלט כיכולת לפעול (למשל להזיז ולתפעל אובייקטים, לשנות מיקום כדי לחקור וכו’)
בעולם הזה שבו יש לצפות בהתנהגות אינטליגנטית. זה כולל את היכולת לזהות ולהגיב למפגע.
גישות בין-תחומיות רבות לאינטליגנציה (למשל מדע קוגניטיבי, אינטליגנציה חישובית וקבלת החלטות מביאות בחשבון תכונות נוספות כגון דמיון שנלקחת כיכולת ליצור דימויים ומושגים נפשיים שלא תוכנתו ב) ואוטונומיה.

מערכות מבוססות מחשב המציגות רבות מהיכולות הללו אכן קיימות (למשל ראה יצירתיות חישובית, חשיבה אוטומטית, מערכת תומכת החלטות, רובוט, חישוב אבולוציוני, סוכן אינטליגנטי, אבל אף אחד לא יצר מערכת משולבת המצטיינת בכל התחומים הללו.

 

פורמליזם מתמטי
מפרט מדויק מתמטי של AGI הוצע על ידי Marcus Hutter בשנת 2000. בשם AIXI, סוכן AGI המוצע ממקסם את “היכולת לעמוד ביעדים במגוון רחב של סביבות”. סוג זה של AGI, המאופיין ביכולת למקסם הגדרה מתמטית של אינטליגנציה במקום להפגין התנהגות דמוית אדם, נקרא גם אינטליגנציה מלאכותית אוניברסלית.

בשנת 2015 יאן ליקה ומרקוס האטר הראו כי “אינטליגנציה של Leg-Hutter נמדדת ביחס למכונת טיורינג אוניברסלית קבועה UTM. AIXI היא המדיניות החכמה ביותר אם היא משתמשת באותו UTM”, תוצאה אשר ” מערער את כל מאפייני האופטימליות הקיימים עבור AIXI”. בעיה זו נובעת מהשימוש של AIXI בדחיסה כפרוקסי לאינטליגנציה, אשר תקפה רק אם ההכרה מתרחשת במנותק מהסביבה בה חותרים למטרות. זה מבסס עמדה פילוסופית המכונה דואליזם גוף-נפש. חלקם מוצאים אנאקטיביזםסביר יותר – הרעיון שההכרה מתרחשת בתוך אותה סביבה שבה חותרים למטרות. לאחר מכן, מייקל טימותי בנט עיצב את ההכרה הפעילה וזיהה פרוקסי חלופי לאינטליגנציה בשם “חולשה”. הניסויים הנלווים (השוואת חולשה ודחיסה) והוכחות מתמטיות הראו כי מקסום חולשה מביא ל”יכולת להשלים מגוון רחב של משימות” או באופן שווה “יכולת להכליל” (ובכך למקסם את האינטליגנציה לפי כל אחת מההגדרות). אם האנאקטיביזם מתקיים ודואליזם גוף-נפשלא, אז דחיסה אינה הכרחית או מספקת עבור אינטליגנציה, ומטילה ספק בדעות הרווחות על אינטליגנציה (ראה גם פרס האטר.

האם AGI שעומד באחד מהפורמליזציות הללו מפגין התנהגות דמוית אדם (כגון שימוש בשפה טבעית) יהיה תלוי בגורמים רבים, למשל האופן שבו הסוכן מתגלם, או האם יש לו פונקציית פרס שמקרוב מקרוב את הפרימיטיבים האנושיים של קוגניציה כמו רעב, כאב וכו’.

בדיקות לבדיקת AGI ברמת האדם
נבחנו מספר בדיקות שנועדו לאשר AGI ברמת האדם, כולל:
מבחן טיורינג טיורינג
מכונה ובן אדם משוחחים שניהם בלתי נראה עם אדם שני, שעליו להעריך מי מבין השניים הוא המכונה, שעוברת את המבחן אם היא יכולה לרמות את המעריך חלק ניכר מהזמן. הערה: טיורינג לא קובע מה צריך להתייחס לאינטליגנציה, רק שהידיעה שהיא מכונה צריכה לפסול אותה.
מבחן הקפה ווזניאק
נדרשת מכונה כדי להיכנס לבית אמריקאי ממוצע ולהבין איך מכינים קפה: מצאו את מכונת הקפה, מצאו את הקפה, הוסיפו מים, מצאו ספל, ומבשלים את הקפה על ידי לחיצה על הכפתורים המתאימים.
מבחן הסטודנטים של מכללת הרובוט גרצל
מכונה נרשמת לאוניברסיטה, לוקחת ומעבירה את אותם השיעורים שבני אדם היו, ומקבלת תואר.
מבחן התעסוקה נילסון
מכונה מבצעת עבודה חשובה מבחינה כלכלית לפחות כמו בני אדם באותה עבודה.

בעיות של AI
ישנן בעיות רבות שעשויות לדרוש אינטליגנציה כללית, אם מכונות יפתרו את הבעיות כמו אנשים. לדוגמה, אפילו משימות פשוטות ספציפיות, כמו תרגום מכונה, דורשות שמכונה תקרא וכתוב בשתי השפות NLP, תעקוב אחר הטיעון של המחבר סיבה, ידע על מה מדברים ידע ותשחזר נאמנה את המקור של המחבר. כוונה אינטליגנציה חברתית. כל הבעיות הללו צריכות להיפתר בו זמנית על מנת להגיע לביצועי מכונה ברמת האדם.

בעיה נקראת באופן לא פורמלי “AI-complete” או “AI-hard” אם מאמינים שכדי לפתור אותה יהיה צורך ליישם בינה מלאכותית חזקה, מכיוון שהפתרון הוא מעבר ליכולות של אלגוריתם ספציפי למטרה.

ההשערה שבעיות מלאות בינה מלאכותית כוללות ראייה ממוחשבת כללית, הבנת שפה טבעית והתמודדות עם נסיבות בלתי צפויות תוך פתרון כל בעיה בעולם האמיתי.

לא ניתן לפתור בעיות של בינה מלאכותית עם טכנולוגיית מחשב נוכחית בלבד, ודורשות חישוב אנושי. מגבלה זו יכולה להיות שימושית לבדיקת נוכחות של בני אדם, כפי שמטרת CAPTCHA היא לעשות; ולאבטחת מחשבים כדי להדוף התקפות בכוח גס.
היסטוריה
AI קלאסי
מאמרים עיקריים: היסטוריה של בינה מלאכותית ובינה מלאכותית סמלית
מחקר בינה מלאכותית מודרנית החל באמצע שנות ה-50. הדור הראשון של חוקרי בינה מלאכותית היה משוכנע שבינה כללית מלאכותית אפשרית ושהיא תתקיים בעוד כמה עשורים בלבד.
חלוץ הבינה המלאכותית הרברט א.
סימון כתב ב-1965: “מכונות יהיו מסוגלות, תוך עשרים שנה, לעשות כל עבודה שאדם יכול לעשות.


התחזיות שלהם היו ההשראה לדמותם של סטנלי קובריק וארתור סי קלארק, HAL 9000, אשר גילם את מה שחוקרי בינה מלאכותית האמינו שיוכלו ליצור עד שנת 2001. חלוץ הבינה המלאכותית מרווין מינסקי היה יועץ בפרויקט הכנת HAL 9000 מציאותי ככל האפשר על פי תחזיות הקונצנזוס של אותה תקופה. הוא אמר ב-1967, “תוך דור… הבעיה של יצירת ‘בינה מלאכותית’ תיפתר באופן מהותי”.

כמה פרויקטים של בינה מלאכותית קלאסית, כמו פרויקט Cyc של דאג לנט (שהחל ב-1984), ופרויקט Soar של אלן ניואל, הופנו ל-AGI.

עם זאת, בתחילת שנות ה-70, התברר כי החוקרים זלזלו בגסות בקושי של הפרויקט. סוכנויות מימון הפכו סקפטיות ל-AGI והכניסו חוקרים ללחץ הולך וגובר לייצר “AI יישומי” שימושי. בתחילת שנות ה-80, פרויקט המחשבים של הדור החמישי ביפן החיה את העניין ב-AGI, וקבע ציר זמן של עשר שנים שכלל יעדי AGI כמו “המשך שיחה סתמית”. בתגובה לכך ולהצלחתן של מערכות מומחים, הן התעשייה והן הממשלה הזרימו כסף בחזרה לשטח. עם זאת, האמון בבינה מלאכותית קרס באופן מרהיב בסוף שנות ה-80, והמטרות של פרויקט המחשבים של הדור החמישי מעולם לא הוגשמו.​​בפעם השנייה בתוך 20 שנה, חוקרי בינה מלאכותית שחזו את ההישג הקרוב של AGI טעו. בשנות ה-90, חוקרי בינה מלאכותית היו מוניטין של הבטחות לשווא. הם נרתעו מלהתחבא בכלל ונמנעו מאזכור של אינטליגנציה מלאכותית “ברמה אנושית” מחשש שיסומנו כ”חולמים פרוע עיניים”.

מחקר AI צר
בשנות ה-90 ותחילת המאה ה-21, AI המיינסטרים השיג הצלחה מסחרית ומכובדות אקדמית על ידי התמקדות בתתי-בעיות ספציפיות שבהן AI יכול לייצר תוצאות ניתנות לאימות ויישומים מסחריים, כגון רשתות עצביות מלאכותיות ולמידת מכונה סטטיסטית. מערכות “AI יישומי” אלו נמצאות כיום בשימוש נרחב בכל תעשיית הטכנולוגיה, ומחקר ברוח זה ממומן בכבדות הן באקדמיה והן בתעשייה.
החל משנת 2018 הפיתוח בתחום זה נחשב למגמה מתפתחת, ושלב בוגר היה צפוי להתרחש בעוד יותר מ-10 שנים.

רוב חוקרי ה-AI המיינסטרים מקווים שניתן לפתח בינה מלאכותית חזקה על ידי שילוב תוכניות הפותרות בעיות משנה שונות.

הנס מורבק כתב ב-1988:

אני בטוח שהמסלול הזה מלמטה למעלה לבינה מלאכותית יפגוש יום אחד את המסלול המסורתי מלמעלה למטה יותר ממחצית הדרך, מוכן לספק את היכולות בעולם האמיתי ואת הידע הישר שהיה חמקמק עד כדי מתסכל בתוכניות חשיבה.
מכונות אינטליגנטיות לחלוטין ייווצרו כאשר ספייק הזהב המטאפורי יונע המאחד את שני המאמצים.

עם זאת, זה שנוי במחלוקת.

לדוגמה, סטיבן הרנאד מאוניברסיטת פרינסטון סיכם את מאמרו משנת 1990 על השערת הארקת סמלים באמירה :

לא פעם הושמעה הציפייה שגישות “מלמעלה למטה” (סמליות) למידול קוגניציה יפגשו איכשהו גישות “מלמטה למעלה” (חושיות) איפשהו באמצע.
אם שיקולי הביסוס במאמר זה תקפים, אז הציפייה הזו היא מודולרית חסרת תקנה ויש באמת רק מסלול בר-קיימא אחד מהחוש לסמלים: מהיסוד.
לרמה סמלית מרחפת חופשית כמו רמת התוכנה של מחשב לעולם לא תגיע המסלול הזה (או להיפך) – וגם לא ברור למה אנחנו צריכים בכלל לנסות להגיע לרמה כזו, שכן נראה כאילו להגיע לשם פשוט מסתכם בעקירת הסמלים שלנו מהמשמעויות הפנימיות שלהם (ובכך רק מצמצמים את עצמנו למקבילה הפונקציונלית של מחשב הניתן לתכנות).

מחקר מודרני של בינה כללית מלאכותית
המונח “בינה כללית מלאכותית” שימש כבר ב-1997, על ידי מארק גוברוד בדיון על ההשלכות של ייצור ופעולות צבאיות אוטומטיות לחלוטין. המונח הוצג מחדש וזכה לפופולריות על ידי שיין לג ובן גורצל בסביבות 2002. פעילות המחקר של AGI ב-2006 תוארה על ידי פיי וואנג ובן גורצל כ”הפקת פרסומים ותוצאות ראשוניות”. בית הספר הקיץ הראשון ב-AGI אורגן בש’יאמן, סין ב-2009 על ידי מעבדת המוח המלאכותי של אוניברסיטת שיאמן ו-OpenCog. הקורס הראשון באוניברסיטה ניתן ב-2010 ו-2011 באוניברסיטת פלובדיב, בולגריה מאת טודור ארנאודוב. MIT הציגה קורס ב-AGI ב-2018, שאורגן על ידי לקס פרידמן ובו מספר מרצים אורחים.

נכון לשנת 2023, רוב חוקרי הבינה המלאכותית מקדישים מעט תשומת לב ל-AGI, ויש הטוענים שהאינטליגנציה מורכבת מכדי להיות משוכפלת לחלוטין בטווח הקרוב.
עם זאת, מספר קטן של מדעני מחשב פעילים במחקר AGI, ורבים תורמים לסדרה של כנסים של AGI.

 

לוחות זמנים
בהקדמה לספרו משנת 2006, Goertzel אומר כי ההערכות של הזמן הדרוש לפני בניית AGI גמיש באמת משתנות בין 10 שנים ליותר ממאה שנה. נכון לשנת 2007, נראה היה שהקונצנזוס בקהילת המחקר של AGI היה שציר הזמן שנדון על ידי ריי קורצווייל ב- The Singularity is Near (כלומר בין 2015 ל-2045) היה סביר. חוקרי AI מיינסטרים נתנו מגוון רחב של דעות לגבי האם ההתקדמות תהיה כה מהירה. מטה-אנליזה משנת 2012 של 95 דעות כאלה מצאה הטיה לניבוי כי הופעת AGI תתרחש בתוך 16-26 שנים עבור תחזיות מודרניות והיסטוריות כאחד. מאמר זה זכה לביקורת על האופן שבו הוא סיווג חוות דעת כמומחה או לא מומחה.

בשנת 2017, החוקרים Feng Liu, Yong Shi ו-Ying Liu ערכו מבחני אינטליגנציה על AI חלש זמין לציבור ונגיש חופשי, כגון AI של גוגל, Siri של אפל ואחרים. במקסימום, AI אלה הגיעו לערך IQ של כ-47, המתאים בערך לילד בן שש בכיתה א’. מבוגר מגיע לכ-100 בממוצע. מבחנים דומים בוצעו ב-2014, כאשר ציון ה-IQ הגיע לערך מרבי של 27.

בשנת 2020, OpenAI פיתחה את GPT-3, מודל שפה המסוגל לבצע משימות רבות ומגוונות ללא הכשרה ספציפית. לפי גארי גרוסמן במאמר של VentureBeat, בעוד שיש הסכמה ש-GPT-3 אינו דוגמה ל-AGI, הוא נחשב על ידי חלק למתקדם מכדי לסווג אותו כמערכת AI צרה.

באותה שנה ג’ייסון רוהר השתמש בחשבון GPT-3 שלו כדי לפתח צ’אט בוט, וסיפק פלטפורמה לפיתוח צ’טבוט בשם “פרויקט דצמבר”. OpenAI ביקשה שינויים בצ’אטבוט כדי לעמוד בהנחיות הבטיחות שלהם; Rohrer ניתק את Project December מ-GPT-3 API.

בשנת 2022 פיתחה DeepMind את Gato, מערכת “למטרה כללית” המסוגלת לבצע יותר מ-600 משימות שונות.

בשנת 2023, Microsoft Research פרסמה מחקר על גרסה מוקדמת של ה-GPT-4 של OpenAI, בטענה שהיא הפגינה אינטליגנציה כללית יותר ממודלים קודמים של AI והדגימה ביצועים ברמת האדם במשימות המשתרעות על פני מספר תחומים, כגון מתמטיקה, קידוד ומשפטים. מחקר זה עורר ויכוח בשאלה האם ניתן להתייחס ל-GPT-4 כגרסה מוקדמת ולא שלמה של בינה כללית מלאכותית, תוך שימת דגש על הצורך בחקירה והערכה נוספת של מערכות כאלה.

הדמיית מוח
גישה אפשרית אחת להשגת AGI היא אמולציית מוח שלם : מודל מוח נבנה על ידי סריקה ומיפוי של מוח ביולוגי בפירוט והעתקת מצבו למערכת מחשב או מכשיר חישובי אחר. המחשב מריץ מודל סימולציה מספיק נאמן למקור כך שהוא מתנהג כמעט באותו אופן כמו המוח המקורי. הדמיית מוח שלם נדונה במדעי המוח החישוביים ובנוירואינפורמטיקה, בהקשר של הדמיית מוח למטרות מחקר רפואי.
זה נדון במחקר בינה מלאכותית כגישה ל-AI חזק.
טכנולוגיות הדמיית עצבים שיכולות לספק את ההבנה המפורטת הדרושה משתפרות במהירות, והעתידן ריי קורצווייל בספר The Singularity Is Near חוזה שמפה באיכות מספקת תהפוך לזמינה בטווח זמן דומה לכוח המחשוב הנדרש כדי לחקות אותה.

 

הערכות מוקדמות
הערכות של כמה כוח עיבוד נדרש כדי לחקות מוח אנושי ברמות שונות (מריי קורצווייל, אנדרס סנדברג וניק בוסטרום, יחד עם מחשב העל המהיר ביותר מ- TOP500 ממופה לפי שנה. שימו לב לסולם הלוגריתמי ולקו המגמה האקספוננציאלי, אשר מניח שהיכולת החישובית מכפילה את עצמה כל 1.1 שנים. קורצווייל מאמין שהעלאת מחשבות תתאפשר בסימולציה עצבית, בעוד שדו”ח Sandberg, Bostrom פחות בטוח לגבי המקום שבו מתעוררת התודעה. עבור הדמיית מוח ברמה נמוכה, יידרש מחשב חזק במיוחד. למוח האנושי יש מספר עצום של סינפסות. לכל אחד מ-10 11 (מאה מיליארד) נוירונים יש בממוצע 7,000 קשרים סינפטיים (סינפסות) לנוירונים אחרים. למוח של ילד בן שלוש יש כ-10 15 סינפסות (קוודריליון אחד). מספר זה יורד עם הגיל, ומתייצב עד הבגרות. ההערכות משתנות עבור מבוגר, ונעות בין 10 14 ל-5×10 14 סינפסות (100 עד 500 טריליון). אומדן של כוח העיבוד של המוח, המבוסס על מודל מתג פשוט לפעילות נוירונים, הוא בסביבות 10 14(100 טריליון) עדכונים סינפטיים בשנייה SUPS.

בשנת 1997, Kurzweil בחן הערכות שונות עבור החומרה הנדרשת כדי להשתוות למוח האנושי ואימץ נתון של 10 16 חישובים לשנייה (cps). (לשם השוואה, אם “חישוב” היה שווה ערך ל”פעולת נקודה צפה ” אחת – מדד המשמש לדירוג מחשבי-על נוכחיים – אז 10 16 “חישובים” יהיו שווים ל-10 petaFLOPS, שהושגו ב-2011, בעוד ש-10 18 הושג ב-2022.
) הוא השתמש בנתון הזה כדי לחזות שהחומרה הדרושה תהיה זמינה מתישהו בין 2015 ל-2025, אם הצמיחה האקספוננציאלית בכוח המחשב בזמן כתיבת שורות אלו תימשך.

 

מודלים את הנוירונים בפירוט רב יותר
מודל הנוירונים המלאכותיים שהניח קורצווייל ומשמש ביישומים רבים של רשתות עצביות מלאכותיות נוכחיות הוא פשוט בהשוואה לנוירונים ביולוגיים. סימולציית מוח תצטרך ככל הנראה ללכוד את ההתנהגות התאית המפורטת של נוירונים ביולוגיים, המובנים כיום רק בקווים כלליים.
התקורה שהוצגה על ידי מידול מלא של הפרטים הביולוגיים, הכימיים והפיזיקליים של התנהגות עצבית (במיוחד בקנה מידה מולקולרי) תדרוש כוחות חישוב גדולים בכמה סדרי גודל מההערכה של קורצווייל.
בנוסף, ההערכות אינן מתייחסות לתאי גליה, אשר ידועים כממלאים תפקיד בתהליכים קוגניטיביים.

מחקר נוכחי
כמה פרויקטים מחקריים חוקרים הדמיית מוח באמצעות מודלים עצביים מתוחכמים יותר, המיושמים על ארכיטקטורות מחשוב קונבנציונליות. פרויקט מערכת הבינה המלאכותית הטמיע סימולציות לא-זמן אמת של “מוח” (עם 10 11 נוירונים) בשנת 2005. נדרשו 50 ימים על אשכול של 27 מעבדים כדי לדמות שנייה אחת של מודל. פרויקט המוח הכחול השתמש באחת מארכיטקטורות מחשבי העל המהירות ביותר, פלטפורמת ה-Blue Gene של IBM, כדי ליצור הדמיית זמן אמת של עמוד ניאו-קורטיקלי חולדה בודד המורכב מכ-10,000 נוירונים ו-108 סינפסות בשנת 2006. מטרה לטווח ארוך יותר היא לבנות סימולציה מפורטת ופונקציונלית של התהליכים הפיזיולוגיים במוח האנושי: “זה לא בלתי אפשרי לבנות מוח אנושי ואנחנו יכולים לעשות את זה תוך 10 שנים”, הנרי מרקרם, מנהל המוח הכחול. פרויקט, נאמר ב-2009 בכנס TED באוקספורד. ממשקי נוירו-סיליקון הוצעו כאסטרטגיית יישום חלופית שעשויה להגדיל את קנה המידה.

הנס מוראבק התייחס לטיעונים שלעיל (“מוח יותר מסובך”, “צריך לעצב נוירונים ביתר פירוט”) במאמרו משנת 1997 “מתי תתאים חומרת המחשב למוח האנושי?”. הוא מדד את היכולת של תוכנה קיימת לדמות את הפונקציונליות של רקמה עצבית, במיוחד הרשתית. התוצאות שלו אינן תלויות במספר תאי הגליה, וגם לא באילו סוגי נוירונים מעבדים היכן.

המורכבות האמיתית של מודל נוירונים ביולוגיים נחקרה בפרויקט OpenWorm שמטרתו הדמיה מלאה של תולעת שיש לה רק 302 נוירונים ברשת העצבית שלה (בין כ-1000 תאים בסך הכל). הרשת העצבית של החיה תועדה היטב לפני תחילת הפרויקט. עם זאת, למרות שהמשימה נראתה פשוטה בהתחלה, המודלים המבוססים על רשת עצבית גנרית לא פעלו. נכון לעכשיו, המאמצים מתמקדים בהדמייה מדויקת של נוירונים ביולוגיים (בחלקם ברמה המולקולרית), אך עדיין לא ניתן לכנות את התוצאה כהצלחה מוחלטת.

 

ביקורת על גישות מבוססות סימולציה
ביקורת עקרונית על גישת המוח המדומה נובעת מתיאוריית ההכרה המגולמת אשר טוענת כי התגלמות אנושית היא היבט חיוני של האינטליגנציה האנושית והיא הכרחית לביסוס משמעות. אם התיאוריה הזו נכונה, כל מודל מוח מתפקד במלואו יצטרך להקיף יותר מאשר רק את הנוירונים (למשל, גוף רובוטי). Goertzel מציע התגלמות וירטואלית (כמו ב- Second Life כאופציה, אך לא ידוע אם זה יספיק.

מחשבים שולחניים המשתמשים במיקרו-מעבדים המסוגלים ליותר מ-10 9 cps (היחידה הלא סטנדרטית של קורצווייל “חישובים לשנייה”, ראה לעיל) זמינים מאז 2005.
על פי הערכות כוח המוח בשימוש על ידי Kurzweil (ומוראבק), מחשב כזה צריך להיות מסוגל לתמוך בסימולציה של מוח דבורה, אך למרות עניין מסוים אין סימולציה כזו.

יש לכך מספר סיבות:

נראה שמודל הנוירון מפשט יתר על המידה (ראה סעיף הבא).

אין הבנה מספקת של תהליכים קוגניטיביים גבוהים יותר כדי לקבוע במדויק את הקורלציה של הפעילות העצבית של המוח (שנצפתה באמצעות טכניקות כגון הדמיית תהודה מגנטית פונקציונלית.

גם אם ההבנה שלנו בקוגניציה תתקדם במידה מספקת, סביר להניח שתוכניות סימולציה מוקדמות יהיו מאוד לא יעילות ולכן יצטרכו הרבה יותר חומרה.

המוח של אורגניזם, למרות שהוא קריטי, לא יכול להיות גבול מתאים למודל קוגניטיבי. כדי לדמות מוח של דבורה, ייתכן שיהיה צורך לדמות את הגוף ואת הסביבה. התזה של Extended Mind מנסחת את המושג הפילוסופי הזה, ומחקר על צפלופודים הוכיח דוגמאות ברורות למערכת מבוזרת. בנוסף, קנה המידה של המוח האנושי כרגע אינו מוגבל היטב. הערכה אחת מעמידה את המוח האנושי על כ-100 מיליארד נוירונים ו-100 טריליון סינפסות. הערכה נוספת היא 86 מיליארד נוירונים מתוכם 16.
3 מיליארד נמצאים בקליפת המוח ו-69 מיליארד במוח הקטן.
סינפסות תאי גליה אינן מכומות כיום, אך ידוע כי הן רבות ביותר.

 

פרספקטיבה פילוסופית
“AI חזק” כהגדרתו בפילוסופיה
בשנת 1980, הפילוסוף ג’ון סירל טבע את המונח “AI חזק” כחלק מטיעון החדר הסיני שלו. הוא רצה להבחין בין שתי השערות שונות לגבי בינה מלאכותית:
השערת AI חזקה : מערכת בינה מלאכותית יכולה “לחשוב” – להיות בעלת “מוח” ו”תודעה”.

השערת AI חלשה : מערכת בינה מלאכותית יכולה (רק) לפעול כמו שהיא חושבת ויש לה מוח ותודעה.

את הראשון הוא כינה “חזק” כי הוא משמיע אמירה חזקה יותר : היא מניחה שקרה משהו מיוחד למכונה שחורג מעבר ליכולות האלה שאנחנו יכולים לבדוק. ההתנהגות של מכונה “בינה מלאכותית חלשה” תהיה זהה בדיוק למכונה “בינה מלאכותית חזקה”, אך לשנייה תהיה גם חוויה מודעת סובייקטיבית. שימוש זה נפוץ גם במחקר AI אקדמי ובספרי לימוד.

AI מיינסטרים מתעניין בעיקר כיצד תוכנית מתנהגת. לפי ראסל ונורוויג, “כל עוד התוכנית עובדת, לא אכפת להם אם קוראים לזה אמיתי או סימולציה”. אם התוכנית יכולה להתנהג כאילו יש לה שכל, אז אין צורך לדעת אם יש לה באמת שכל – אכן, לא תהיה דרך לדעת. עבור מחקר בינה מלאכותית, “השערת הבינה המלאכותית החלשה” של סרל מקבילה להצהרה “אפשרית בינה כללית מלאכותית”. לפיכך, לפי ראסל ונורביג, “רוב חוקרי הבינה המלאכותית לוקחים את השערת הבינה המלאכותית החלשה כמובן מאליו, ולא אכפת להם מהשערת הבינה המלאכותית החזקה”. לפיכך, עבור מחקר AI אקדמי, “AI חזק” ו-“AGI” הם שני דברים שונים מאוד.

בניגוד לסירל ול-AI המיינסטרים, כמה עתידנים כמו ריי קורצווייל משתמשים במונח “AI חזק” במשמעות של “אינטליגנציה כללית מלאכותית ברמה אנושית”. זה לא זהה ל- AI החזק של סרל, אלא אם כן אתה מניח שהתודעה הכרחית עבור AGI ברמת האדם.
פילוסופים אקדמיים כמו סירל אינם מאמינים שזה המצב, ולרוב חוקרי הבינה המלאכותית השאלה היא מחוץ לתחום.

תודעה
היבטים אחרים של המוח האנושי מלבד אינטליגנציה רלוונטיים למושג AI חזק, ואלו ממלאים תפקיד מרכזי במדע בדיוני ובאתיקה של בינה מלאכותית :

תודעה : להיות בעל חוויה ומחשבה סובייקטיבית. מודעות עצמית : להיות מודע לעצמו כאינדיבידואל נפרד, במיוחד להיות מודע למחשבות שלו.

sentience : היכולת “לחוש” תפיסות או רגשות באופן סובייקטיבי.

sapience : היכולת לחוכמה.

לתכונות הללו יש ממד מוסרי, מכיוון שלמכונה עם צורה זו של בינה מלאכותית חזקה עשויות להיות זכויות, בדומה לזכויות של חיות לא אנושיות. נערכה עבודה ראשונית על שילוב סוכנים אתיים מלאים עם מסגרות משפטיות וחברתיות קיימות, תוך התמקדות בעמדה המשפטית ובזכויות של AI ‘חזקה’. ביל ג’וי, בין היתר, טוען שמכונה בעלת תכונות אלו עשויה להיות איום על חיי אדם או על כבודו.

נותר להראות אם אחת מהתכונות הללו נחוצות עבור AI חזק. תפקידה של התודעה אינו ברור, ואין מבחן מוסכם לנוכחותה. אם מכונה נבנית עם מכשיר שמדמה את המתאם העצבי של התודעה, האם תהיה לה מודעות עצמית באופן אוטומטי? יתכן שחלק מהתכונות הללו נובעות באופן טבעי ממכונה אינטליגנטית לחלוטין.
יתכן גם שאנשים ייחסו את המאפיינים הללו למכונות ברגע שהם יתחילו לפעול באופן ברור שהוא אינטליגנטי.

מחקר על תודעה מלאכותית
למרות שתפקידה של התודעה ב-AI/AGI חזק נתון לוויכוח, חוקרי AGI רבים רואים במחקר שחוקר אפשרויות ליישום תודעה חיוני. במאמץ מוקדם, איגור אלכסנדר טען שהעקרונות ליצירת מכונה מודעת כבר קיימים אבל שייקח ארבעים שנה לאמן מכונה כזו להבין שפה.
הסברים אפשריים להתקדמות האיטית של מחקר AI חזק

חלק זה עשוי להיות מבלבל או לא ברור לקוראים.
אנא עזרו להבהיר את הסעיף.
אולי יהיה דיון על זה בדף השיחה.

ספטמבר 2021 למד כיצד ומתי להסיר הודעת תבנית זו
מאז השקת מחקר בינה מלאכותית ב-1956, הואטה ההתקדמות בתחום זה של יצירת מכונות המיומנות בפעולה חכמה ברמה האנושית. סיבה אפשרית אחת היא שלמחשבים אין מספיק זיכרון, כוח עיבוד או גמישות שבבים כדי להכיל פלטפורמות AGI מוכוונות מדעי המחשב ו/או מדעי המוח. כמו כן, ככל הנראה המורכבות הכרוכה במחקר בינה מלאכותית מגבילה גם את ההתקדמות של מחקר AI חזק.

מגבלות מושגיות הן סיבה אפשרית נוספת לאיטיות במחקר בינה מלאכותית. יתכן כי חוקרי בינה מלאכותית יצטרכו לשנות את המסגרת המושגית של הדיסציפלינה שלהם על מנת לספק בסיס חזק יותר למסע השגת בינה מלאכותית חזקה. משמעות הדבר היא מיקום בינה מלאכותית חזקה בהקשר חברתי-תרבותי שבו בינה מלאכותית דמוית אדם נובעת מחוויות דמויות אדם. כפי שכתב וויליאם קלוקסין ב-2003: ” המסגרת מתחילה מ של וייזנבאום.התבוננות כי אינטליגנציה מתבטאת רק ביחס להקשרים חברתיים ותרבותיים ספציפיים”.

חוקרי בינה מלאכותית הצליחו ליצור מחשבים שיכולים לבצע עבודות שאנשים מסובכים לעשות, כמו מתמטיקה, אבל הם התקשו לפתח מחשב שמסוגל לבצע משימות שפשוט לבני אדם לעשות, כמו הליכה הפרדוקס של מורבץ. הבעיה כפי שתואר על ידי דוד גלרנטר היא שיש אנשים המניחים שחשיבה והיגיון שוות ערך. הרעיון האם המחשבות והיוצר של המחשבות הללו מבודדים או חייבים להיות ממוקמים חברתית סיקרן את חוקרי הבינה המלאכותית.

הבעיות שנתקלו במחקר בינה מלאכותית בעשורים האחרונים עצרו עוד יותר את התקדמות המחקר והפיתוח של AGI על ידי יצירת מידה של חוסר אמון בתחום. התחזיות הכושלות להצלחה מצד חוקרי בינה מלאכותית והיעדר הבנה מלאה של התנהגויות אנושיות הפחיתו את האופטימיות ברעיון ליצור בינה מלאכותית ברמה אנושית. ההתקדמות ההולכת ופוחתת של מחקר בינה מלאכותית הביאה הן לשיפור והן לאכזבה. רוב החוקרים אופטימיים לגבי השגת AGI במאה ה-21.

סיבות אפשריות אחרות הוצעו להתקדמות האיטית לקראת AI חזק. המורכבות של בעיות מדעיות והצורך להבין את המוח האנושי במלואו באמצעות פסיכולוגיה ונוירופיזיולוגיה הגבילו חוקרים רבים במשימה לחקות את תפקוד המוח האנושי בחומרת מחשב באמצעות יוזמות כמו פרויקט המוח האנושי. חוקרים רבים נוטים לזלזל בכל ספק הקשור בתחזיות עתידיות של AI, אך מבלי להתייחס ברצינות לנושאים כמו מודלים של מוח אנושי, חוקרי AGI מתעלמים מפתרונות לשאלות בעייתיות.

קלוקסין אומר שחקרי בינה מלאכותית עשויים להשתמש בטכניקות הלא נכונות עבור תוכניות מחשב ולהטמעת ציוד. כאשר חוקרי בינה מלאכותית החלו לכוון לראשונה ל-AGI, העניין העיקרי היה לחקות ולחקור חשיבה אנושית. בזמנו קיוו החוקרים לבסס מודלים חישוביים של ידע אנושי באמצעות חשיבה ולגלות כיצד לעצב מחשב עם משימה קוגניטיבית ספציפית.

בתגובה, תרגול ההפשטה, שאנשים נוטים להגדיר מחדש כאשר עובדים עם הקשר מסוים במחקר, מספק לחוקרי בינה מלאכותית את האפשרות להתרכז רק בכמה מושגים. השימוש היצרני ביותר בהפשטה במחקר בינה מלאכותית נובע מתכנון ופתרון בעיות. למרות שהמטרה היא להגביר את מהירות החישוב, תפקידם של אופרטורי ההפשטה הציב בעיות.

היוריסטיקה אנושית נותרה עדיפה על ביצועי מחשב בתחומים מסוימים. אבל פונקציות ספציפיות שתוכנתו במחשבים חזקים יותר ויותר יוכלו ליישם היוריסטיות שבסופו של דבר מאפשרות לבינה מלאכותית להתאים לאינטליגנציה האנושית. אמנם היוריסטיקה אינה בהכרח מחסום בסיסי להשגת בינה מלאכותית חזקה, אך הסכמה רחבה היא אתגר.

חוקרי בינה מלאכותית התלבטו אם יש ליצור מכונות עם רגשות או לא. אין רגשות במודלים טיפוסיים של בינה מלאכותית, וכמה חוקרים אומרים שתכנות רגשות לתוך מכונות מאפשר למכונות כאלה להיות מוח משלהן . רגשות עוזרים לבני אדם לזכור חוויות. דוד גלרנטר כותב, “אף מחשב לא יהיה יצירתי אלא אם הוא יכול לדמות את כל הניואנסים של הרגש האנושי.” סביר להניח שרגש ימשיך להיות נושא של מחקר AI חזק.

מחלוקות וסכנות
היתכנות
נכון לשנת 2022, AGI נותרה ספקולטיבית. עדיין לא הוכחה מערכת כזו. הדעות חלוקות הן אם ומתי תגיע בינה כללית מלאכותית. חלוץ הבינה המלאכותית הרברט א. סימון שיער ב-1965 ש”מכונות יהיו מסוגלות, תוך עשרים שנה, לעשות כל עבודה שאדם יכול לעשות”. התחזית הזו לא הצליחה להתגשם. מייסד שותף של מיקרוסופט, פול אלן, האמין כי אינטליגנציה כזו אינה סבירה במאה ה-21 מכיוון שהיא תדרוש “פריצות דרך בלתי צפויות ובלתי צפויות ביסודו” ו”הבנה עמוקה מבחינה מדעית של קוגניציה”. כתיבה ב”גרדיאן”., הרובוטיקן אלן ווינפילד טען שהפער בין מחשוב מודרני לבינה מלאכותית ברמת האדם הוא רחב כמו הפער בין טיסה לחלל הנוכחית לטיסה מעשית מהירה מהאור בחלל.

רוב חוקרי הבינה המלאכותית מאמינים שניתן להשיג בינה מלאכותית חזקה בעתיד, אבל כמה אנשים, כמו הוברט דרייפוס ורוג’ר פנרוז, מכחישים את האפשרות להשיג בינה מלאכותית חזקה. ג’ון מקארתי הוא בין אלה המאמינים ש-AI ברמת האדם תושג, אבל שרמת ההתקדמות הנוכחית היא כזו שלא ניתן לחזות תאריך במדויק. דעותיהם של מומחי בינה מלאכותית לגבי ההיתכנות של שעווה ודעיכה של AGI. ארבעה סקרים שנערכו בשנים 2012 ו-2013 העלו כי הניחוש החציוני בקרב מומחים מתי הם יהיו בטוחים ב-50% ש-AGI יגיע היה 2040 עד 2050, תלוי בסקר, כשהממוצע הוא 2081. מבין המומחים, 16.5% השיבו עם ” אף פעם” כאשר נשאל אותה שאלה אבל עם 90% ביטחון במקום. שיקולי התקדמות AGI נוכחיים נוספים ניתן למצוא למעלה מבדיקות לאישור AGI ברמת האדם.

דו”ח של סטיוארט ארמסטרונג וקאג’ סוטאלה מהמכון לחקר מודיעין מכונה מצא כי “במשך טווח זמן של 60 שנה ישנה הטיה חזקה לחיזוי הגעתו של בינה מלאכותית ברמה אנושית בין 15 ל-25 שנים מרגע התחזית. עָשׂוּי”. הם ניתחו 95 תחזיות שנעשו בין 1950 ל-2012 לגבי המועד שבו תגיע AI ברמה האנושית.

איום פוטנציאלי על הקיום האנושי
התזה לפיה בינה מלאכותית מהווה סיכון קיומי לבני אדם, וכי סיכון זה זקוק להרבה יותר תשומת לב ממה שהוא מקבל כיום, קיבלה תמיכה של אישי ציבור רבים, כולל אילון מאסק, ביל גייטס וסטיבן הוקינג. חוקרי בינה מלאכותית כמו סטיוארט ג’יי ראסל, רומן ימפולסקי ואלכסיי טורצ’ין, תומכים גם הם בתזה הבסיסית של איום פוטנציאלי על האנושות. גייטס מצהיר כי אינו “מבין מדוע אנשים מסוימים אינם מודאגים”, והוקינג מתח ביקורת על אדישות רחבה במאמר המערכת שלו מ-2014:
אז, מול עתידים אפשריים של יתרונות וסיכונים בלתי ניתנים להערכה, המומחים בוודאי עושים הכל כדי להבטיח את התוצאה הטובה ביותר, נכון? לא בסדר. אם ציוויליזציה חייזרית מעולה שלחה לנו הודעה האומרת, ‘נגיע בעוד כמה עשורים’, היינו פשוט עונים, ‘בסדר, התקשר אלינו כשתגיע הנה – נשאיר את האורות דולקים?’ כנראה שלא – אבל זה פחות או יותר מה שקורה עם AI.

סקירה שיטתית משנת 2021 של הסיכונים הקשורים ל-AGI, תוך ציון מיעוט הנתונים, מצאה את האיומים הפוטנציאליים הבאים: “AGI מסירה את עצמה משליטתם של בעלים/מנהלים אנושיים, ניתנת או מפתחת מטרות לא בטוחות, פיתוח של AGI לא בטוחים, AGIs לא בטוחים. עם אתיקה, מוסר וערכים לקויים; ניהול לקוי של AGI וסיכונים קיומיים”.

חוקרים רבים המודאגים מסיכון קיומי דוגלים במחקר (אולי מאסיבי) לפתרון ” בעיית השליטה ” הקשה כדי לענות על השאלה: אילו סוגי אמצעי הגנה, אלגוריתמים או ארכיטקטורות יכולים מתכנתים ליישם כדי למקסם את ההסתברות שבינה מלאכותית המשתפרת באופן רקורסיבי. להמשיך להתנהג בצורה ידידותית ולא הרסנית אחרי שהיא מגיעה למודיעין העל? פתרון בעיית הבקרה מסובך על ידי מירוץ החימוש בינה מלאכותית, אשר יראה כמעט בוודאות את המיליטריזציה והנשק של AGI על ידי יותר ממדינת לאום אחת, וכתוצאה מכך לוחמה מתאפשרת AGI, ובמקרה של חוסר התאמה של AI, לוחמה מכוונת AGI, פוטנציאלית נגד האנושות כולה.

לתזה כי בינה מלאכותית יכולה להוות סיכון קיומי יש גם פוגעים. הספקנים טוענים לפעמים שהתזה היא קריפטו-דתית, עם אמונה לא רציונלית באפשרות של אינטליגנציה-על תחליף אמונה לא רציונלית באל כל יכול. ג’רון לנייר טען ב-2014 שהרעיון שמכונות שהיו אז היו אינטליגנטיות בכל צורה שהיא היא “אשליה” ו”נוכל מדהים” של העשירים.

ביקורת רבה טוענת ש-AGI לא סביר בטווח הקצר. מדען המחשבים גורדון בל טוען שהמין האנושי ישמיד את עצמו לפני שהוא יגיע לייחודיות הטכנולוגית. גורדון מור, התומך המקורי של חוק מור, מצהיר: “אני ספקן. אני לא מאמין שסביר שיקרה , לפחות במשך זמן רב. ואני לא יודע למה אני מרגיש את זה דֶרֶך.
” סגן נשיא באידו לשעבר והמדען הראשי, אנדרו נג, אומר כי דאגה לגבי סיכון קיומי של AI היא “כמו דאגה מאוכלוסיית יתר על מאדים כשעוד לא דרכה רגלנו על כדור הארץ”.

מהי בינה מלאכותית

בינה מלאכותית AI היא אינטליגנציה המודגמת על ידי מכונות, בניגוד לבינה של בני אדם ובעלי חיים אחרים. משימות לדוגמה שבהן זה נעשה כוללות זיהוי דיבור, ראייה ממוחשבת, תרגום בין שפות (טבעיות), כמו גם מיפויים אחרים של קלט.

יישומי בינה מלאכותית כוללים מנועי חיפוש מתקדמים באינטרנט (למשל, חיפוש Google, מערכות המלצות בשימוש על ידי YouTube, אמזון ונטפליקס, הבנת דיבור אנושי (כגון סירי ואלקסה, מכוניות בנהיגה עצמית (למשל, Waymo, כלים יצירתיים ChatGPT ו- AI art, קבלת החלטות אוטומטית ותחרות ברמה הגבוהה ביותר במערכות משחק אסטרטגיות (כגון שחמטולך.

ככל שמכונות הופכות ליכולות יותר ויותר, משימות הנחשבות כדורשות “אינטליגנציה” מוסרות לעתים קרובות מההגדרה של AI, תופעה המכונה אפקט AI. לדוגמה, זיהוי תווים אופטי אינו נכלל לעתים קרובות מדברים הנחשבים ל-AI, לאחר שהפך לטכנולוגיה שגרתית.

בינה מלאכותית נוסדה כדיסציפלינה אקדמית ב-1956, ובשנים שחלפו מאז חוותה כמה גלים של אופטימיות, ואחריה אכזבה ואובדן מימון (המכונה ” חורף AI “), ] ואחריו גישות חדשות, הצלחה ומימון מחודש. מחקר בינה מלאכותית ניסה והשליך גישות רבות ושונות, כולל הדמיית המוח, יצירת מודלים של פתרון בעיות אנושיות, לוגיקה פורמלית, מסדי נתונים גדולים של ידע וחיקוי התנהגות של בעלי חיים. בעשורים הראשונים של המאה ה-21, למידת מכונה מתמטית וסטטיסטית ביותרשלטה בתחום, וטכניקה זו הוכיחה את עצמה כמוצלחת ביותר, וסייעה בפתרון בעיות מאתגרות רבות ברחבי התעשייה והאקדמיה.

תחומי המשנה השונים של חקר הבינה המלאכותית מתרכזים סביב מטרות מסוימות ושימוש בכלים מסוימים. המטרות המסורתיות של מחקר בינה מלאכותית כוללות חשיבה, ייצוג ידע, תכנון, למידה, עיבוד שפה טבעית, תפיסה ויכולת להזיז אובייקטים ולתפעל אותם. מודיעין כללי (היכולת לפתור בעיה שרירותית) הוא בין היעדים ארוכי הטווח של התחום. כדי לפתור בעיות אלו, חוקרי בינה מלאכותית התאימו ושילבו מגוון רחב של טכניקות לפתרון בעיות, כולל חיפוש ואופטימיזציה מתמטית, לוגיקה פורמלית, רשתות עצביות מלאכותיות.ושיטות המבוססות על סטטיסטיקה, הסתברות וכלכלה. AI מסתמך גם על מדעי המחשב, פסיכולוגיה, בלשנות, פילוסופיה ותחומים רבים אחרים.

התחום הוקם על בסיס ההנחה שאפשר לתאר את האינטליגנציה האנושית “כל כך מדויק עד שניתן ליצור מכונה שתדמה אותה”. זה העלה טיעונים פילוסופיים לגבי הנפש וההשלכות האתיות של יצירת יצורים מלאכותיים שניחנו באינטליגנציה דמוית אדם; נושאים אלה נחקרו בעבר על ידי מיתוס, בדיוני ופילוסופיה מאז ימי קדם. מדעני מחשב ופילוסופים הציעו מאז שבינה מלאכותית עשויה להפוך לסיכון קיומי לאנושות אם היכולות הרציונליות שלה לא מנווטות לעבר מטרות מועילות. המונח בינה מלאכותית זכה גם לביקורת על כך שהוא מגדיל יתר על המידה את היכולות הטכנולוגיות האמיתיות של AI.

היסטוריה של בינה מלאכותית וציר זמן של בינה מלאכותית
יצורים מלאכותיים בעלי אינטליגנציה הופיעו כאמצעי לסיפור סיפורים בעת העתיקה, והיו נפוצים בסיפורת, כמו בפרנקנשטיין של מרי שלי או ב-RUR של קארל צ’אפק דמויות אלו וגורלן העלו רבות מאותן סוגיות שנידונו כעת באתיקה של בינה מלאכותית.

חקר החשיבה המכנית או ה”פורמלית” החל עם פילוסופים ומתמטיקאים בעת העתיקה. חקר הלוגיקה המתמטית הוביל ישירות לתיאוריית החישוב של אלן טיורינג, שהציעה שמכונה, על ידי ערבוב של סמלים פשוטים כמו “0” ו-“1”, יכולה לדמות כל פעולה אפשרית של דדוקציה מתמטית. התובנה הזו לפיה מחשבים דיגיטליים יכולים לדמות כל תהליך של חשיבה פורמלית ידועה בשם התזה של Church–Turing. זאת, יחד עם גילויים מקבילים בנוירוביולוגיה, תורת המידע והקיברנטיקה, הובילה חוקרים לשקול את האפשרות לבנות מוח אלקטרוני. העבודה הראשונה המוכרת כיום כ-AI הייתה העיצוב הפורמלי של מק’קולוץ ‘ ופיטס משנת 1943 עבור “נוירונים מלאכותיים” של טיורינג.

בשנות ה-50 של המאה ה-20 הופיעו שני חזונות כיצד להשיג אינטליגנציה מכונה. חזון אחד, המכונה Symbolic AI או GOFAI, היה להשתמש במחשבים כדי ליצור ייצוג סמלי של העולם ומערכות שיכולות לנמק את העולם. בין התומכים היו אלן ניואל, הרברט א. סיימון ומרווין מינסקי. קשר הדוק לגישה זו הייתה גישת ה”חיפוש ההיוריסטי”, אשר השוותה את האינטליגנציה לבעיה של חקר מרחב של אפשרויות לתשובות.

 

החזון השני, המכונה הגישה הקונקשןיסטית, ביקש להשיג אינטליגנציה באמצעות למידה. התומכים בגישה זו, ובראשם פרנק רוזנבלט, ביקשו לחבר את Perceptron בדרכים בהשראת קשרים של נוירונים. ג’יימס מאנייקה ואחרים השוו את שתי הגישות לתודעה (בינה מלאכותית סימבולית) ולמוח (הקשריות). מנייקה טוענת כי גישות סמליות שלטו בדחיפה לבינה מלאכותית בתקופה זו, בין היתר בשל הקשר שלה למסורות אינטלקטואליות של דקארט, בולה, גוטלוב פרגה, ברטרנד ראסל ואחרים. גישות קונקציוניסטיות המבוססות עלקיברנטיקה או רשתות עצבים מלאכותיות נדחקו לרקע אך זכו למעמד חדש בעשורים האחרונים.

תחום חקר הבינה המלאכותית נולד בסדנה במכללת דרטמות ‘ בשנת 1956. המשתתפים הפכו למייסדי ומובילי חקר הבינה המלאכותית. הם ותלמידיהם הפיקו תוכניות שהעיתונות תיארה כ”מדהימות”: מחשבים למדו אסטרטגיות דמקה, פתרו בעיות מילים באלגברה, הוכיחו משפטים לוגיים ודיברו אנגלית.

עד אמצע שנות ה-60, המחקר בארה”ב מומן בכבדות על ידי משרד ההגנה והוקמו מעבדות ברחבי העולם.

חוקרים בשנות ה-60 וה-70 היו משוכנעים שגישות סמליות יצליחו בסופו של דבר ליצור מכונה בעלת בינה כללית מלאכותית וראו בכך את מטרת התחום שלהן. הרברט סיימון חזה, “מכונות יהיו מסוגלות, תוך עשרים שנה, לעשות כל עבודה שאדם יכול לעשות”. מרווין מינסקי הסכים וכתב, “בתוך דור… הבעיה של יצירת ‘בינה מלאכותית’ תיפתר באופן מהותי”.

הם לא הצליחו לזהות את הקושי של חלק מהמשימות הנותרות. ההתקדמות האטה ובשנת 1974, בתגובה לביקורת על סר ג’יימס לייטהייל וללחץ המתמשך מצד הקונגרס האמריקאי לממן פרויקטים פרודוקטיביים יותר, הן הממשלות האמריקאיות והן הממשלות הבריטיות ניתקו מחקר חקר בתחום הבינה המלאכותית. השנים הבאות ייקראו מאוחר יותר ” חורף בינה מלאכותית “, תקופה שבה השגת מימון לפרויקטים של בינה מלאכותית הייתה קשה.

בתחילת שנות ה-80, מחקר בינה מלאכותית זכה לתחייה על ידי ההצלחה המסחרית של מערכות מומחים, סוג של תוכנית בינה מלאכותית המדמה את הידע והכישורים האנליטיים של מומחים אנושיים. עד 1985, שוק הבינה המלאכותית הגיע ליותר ממיליארד דולר. במקביל, פרויקט המחשבים של יפן מהדור החמישי נתן השראה לממשלות ארה”ב ובריטניה להחזיר את המימון למחקר אקדמי. עם זאת, החל מהתמוטטות שוק ה- Lisp Machine ב-1987, AI שוב נפלה מוניטין, והחל חורף שני ארוך יותר.

חוקרים רבים החלו לפקפק בכך שהגישה הסמלית תוכל לחקות את כל תהליכי ההכרה האנושית, במיוחד תפיסה, רובוטיקה, למידה וזיהוי דפוסים. מספר חוקרים החלו לבחון גישות “תת-סמליות” לבעיות בינה מלאכותית ספציפיות. חוקרי רובוטיקה, כמו רודני ברוקס, דחו בינה מלאכותית סמלית והתמקדו בבעיות ההנדסיות הבסיסיות שיאפשרו לרובוטים לנוע, לשרוד וללמוד את סביבתם.

העניין ברשתות עצביות וב”קשריזם ” הוקם מחדש על ידי ג’פרי הינטון, דיוויד רומלהארט ואחרים באמצע שנות השמונים. כלי מחשוב רך פותחו בשנות ה-80, כגון רשתות עצביות, מערכות מטושטשות, תורת המערכת האפורה, חישוב אבולוציוני וכלים רבים שנלקחו מסטטיסטיקה או אופטימיזציה מתמטית.

בינה מלאכותית שיקמה בהדרגה את המוניטין שלה בסוף שנות ה-90 ותחילת המאה ה-21 על ידי מציאת פתרונות ספציפיים לבעיות ספציפיות. ההתמקדות הצר אפשרה לחוקרים להפיק תוצאות ניתנות לאימות, לנצל שיטות מתמטיות יותר ולשתף פעולה עם תחומים אחרים (כגון סטטיסטיקה, כלכלה ומתמטיקה. עד שנת 2000, פתרונות שפותחו על ידי חוקרי בינה מלאכותית היו בשימוש נרחב, אם כי בשנות ה-90 הם תוארו לעתים רחוקות כ”בינה מלאכותית”.

מחשבים מהירים יותר, שיפורים אלגוריתמיים וגישה לכמויות גדולות של נתונים אפשרו התקדמות בלמידת מכונה ותפיסה; שיטות למידה עמוקה זוללות נתונים החלו לשלוט במדדי הדיוק בסביבות 2012. על פי ג’ק קלארק מבלומברג, שנת 2015 הייתה שנת דרך עבור בינה מלאכותית, כאשר מספר פרויקטי התוכנה המשתמשים ב-AI בתוך גוגל גדל מ”שימוש ספורדי” ב-2012 ליותר מ-2,700 פרויקטים. הוא ייחס זאת לעלייה ברשתות עצביות במחיר סביר, עקב עלייה בתשתית מחשוב ענן ומעלייה בכלי מחקר ומערכי נתונים.

בסקר משנת 2017, אחת מכל חמש חברות דיווחה כי “שילבו AI בהצעות או תהליכים מסוימים”. כמות המחקר בנושא AI (נמדד על ידי סך הפרסומים) גדל ב-50% בשנים 2015–2019.

חוקרים אקדמיים רבים חששו מכך שבינה מלאכותית אינה חותרת עוד למטרה המקורית של יצירת מכונות צדדיות וחכמות לחלוטין. חלק גדול מהמחקר הנוכחי כרוך בבינה מלאכותית סטטיסטית, המשמשת באופן גורף לפתרון בעיות ספציפיות, אפילו טכניקות מוצלחות ביותר כמו למידה עמוקה. דאגה זו הובילה לתת-תחום של בינה כללית מלאכותית (או “AGI”), שהיו לו כמה מוסדות ממומנים היטב עד שנות ה-2010.

מטרות
הבעיה הכללית של הדמיית (או יצירת) אינטליגנציה פורקה לתת-בעיות.
אלה מורכבים מתכונות או יכולות מסוימות שהחוקרים מצפים ממערכת חכמה להציג.
התכונות המתוארות להלן קיבלו את מירב תשומת הלב.

נימוק, פתרון בעיות
חוקרים מוקדמים פיתחו אלגוריתמים שחיקו היגיון שלב אחר שלב שבני אדם משתמשים בהם כאשר הם פותרים חידות או מסיקים לוגיים. עד סוף שנות ה-80 וה -90, מחקר בינה מלאכותית פיתח שיטות להתמודדות עם מידע לא ודאי או לא שלם, תוך שימוש במושגים מהסתברות וכלכלה.

רבים מאלגוריתמים אלה הוכחו כלא מספיקים לפתרון בעיות חשיבה גדולות מכיוון שהם חוו “פיצוץ קומבינטורי”: הם נעשו איטיים יותר באופן אקספוננציאלי ככל שהבעיות גדלו. אפילו בני אדם ממעטים להשתמש בהסקת שלב אחר שלב שמחקר AI מוקדם יכול היה לדגמן.
הם פותרים את רוב הבעיות שלהם באמצעות שיפוט מהיר ואינטואיטיבי.

הצגת ידע
אונטולוגיה מייצגת ידע כמערכת של מושגים בתוך תחום ואת היחסים בין אותם מושגים.

ייצוג ידע והנדסת ידע מאפשרים לתוכניות בינה מלאכותית לענות על שאלות בצורה חכמה ולהסיק מסקנות לגבי עובדות בעולם האמיתי.

ייצוג של “מה שקיים” הוא אונטולוגיה : קבוצת האובייקטים, היחסים, המושגים והמאפיינים המתוארים באופן רשמי כך שסוכני תוכנה יכולים לפרש אותם. האונטולוגיות הכלליות ביותר נקראות אונטולוגיות עליונות, המנסות לספק בסיס לכל ידע אחר ולפעול כמתווכים בין אונטולוגיות תחום המכסות ידע ספציפי על תחום ידע מסוים (תחום עניין או תחום דאגה). תוכנית אינטליגנטית באמת תצטרך גם גישה לידע בריא; מכלול העובדות שאדם ממוצע יודע. הסמנטיקה של אונטולוגיה מיוצגת בדרך כלל בלוגיקת תיאור, כגון שפת האונטולוגיה של האינטרנט.

מחקר בינה מלאכותית פיתח כלים לייצוג תחומים ספציפיים, כגון אובייקטים, מאפיינים, קטגוריות ויחסים בין אובייקטים; מצבים, אירועים, מצבים וזמן; סיבות ותוצאות; ידע על ידע (מה שאנו יודעים על מה שאנשים אחרים יודעים); נימוק ברירת מחדל (דברים שבני אדם מניחים שהם נכונים עד שיסופרו להם אחרת ויישארו נכונים גם כאשר עובדות אחרות משתנות); וכן תחומים אחרים.
בין הבעיות הקשות ביותר בבינה מלאכותית הן: רוחב הידע הישר (מספר העובדות האטומיות שהאדם הממוצע יודע הוא עצום); והצורה התת-סמלית של רוב הידע השכיח (חלק גדול ממה שאנשים יודעים אינו מיוצג כ”עובדות” או “הצהרות” שהם יכולים לבטא מילולית).

ייצוגי ידע פורמליים משמשים באינדקס ואחזור מבוסס תוכן, פרשנות סצנה, תמיכה קלינית בהחלטות, גילוי ידע (כריית מסקנות “מעניינות” וניתנות לפעולה ממאגרי מידע גדולים), ותחומים אחרים.

למידת מכונה (ML), תפיסה בסיסית של חקר בינה מלאכותית מאז תחילת התחום, היא חקר אלגוריתמי מחשב המשתפרים באופן אוטומטי באמצעות ניסיון.

למידה ללא פיקוח מוצאת דפוסים בזרם של קלט.

למידה מפוקחת מחייבת אדם לתייג תחילה את נתוני הקלט, והיא מגיעה בשני סוגים עיקריים: סיווג ורגרסיה מספרית. הסיווג משמש כדי לקבוע לאיזו קטגוריה משהו שייך – התוכנית רואה מספר דוגמאות של דברים מכמה קטגוריות ותלמד לסווג תשומות חדשות. רגרסיה היא הניסיון לייצר פונקציה המתארת ​​את הקשר בין תשומות לתפוקות ומנבאת כיצד התפוקות אמורות להשתנות ככל שהתשומות משתנות. ניתן לראות גם מסווגים וגם לומדי רגרסיה כ”מקרובי פונקציות” המנסים ללמוד פונקציה לא ידועה (אולי מרומזת); לדוגמה, ניתן לראות במסווג דואר זבל כשלומד פונקציה הממפה מהטקסט של הודעת דואר אלקטרוני לאחת משתי קטגוריות, “ספאם” או “לא דואר זבל”.

בלימוד חיזוק הסוכן מתוגמל על תגובות טובות ונענש על רעות. הסוכן מסווג את תגובותיו כדי ליצור אסטרטגיה לפעולה במרחב הבעייתי שלו.

למידת העברה היא כאשר הידע שנרכש מבעיה אחת מיושם על בעיה חדשה.

תיאוריית הלמידה החישובית יכולה להעריך את הלומדים לפי מורכבות חישובית, לפי מורכבות מדגם (כמה נתונים נדרשים), או לפי מושגים אחרים של אופטימיזציה.

עיבוד שפה טבעית
עץ ניתוח מייצג את המבנה התחבירי של משפט לפי דקדוק פורמלי כלשהו.

עיבוד שפה טבעית (NLP) מאפשר למכונות לקרוא ולהבין את השפה האנושית. מערכת עיבוד שפה טבעית חזקה מספיק תאפשר ממשקי משתמש בשפה טבעית ורכישת ידע ישירות ממקורות שנכתבו על ידי אנוש, כגון טקסטים של Newswire. כמה יישומים פשוטים של NLP כוללים אחזור מידע, מענה לשאלות ותרגום מכונה.

AI סימבולי השתמש בתחביר פורמלי כדי לתרגם את המבנה העמוק של משפטים ללוגיקה. זה לא הצליח לייצר יישומים מועילים, בשל חוסר הסחירות של ההיגיון ורוחב הידע הישר. טכניקות סטטיסטיות מודרניות כוללות תדרים של הופעה משותפת (תדירות שבה מופיעה מילה אחת ליד אחרת), “איתור מילות מפתח” (חיפוש אחר מילה מסוימת כדי לאחזר מידע), למידה עמוקה מבוססת שנאים המוצאת תבניות בטקסט), וכן אחרים. הם השיגו דיוק מקובל ברמת העמוד או הפסקה, ועד שנת 2019, הם יכולים ליצור טקסט קוהרנטי.

תפיסה

זיהוי תכונות (בתמונה: זיהוי קצה עוזר לבינה מלאכותית להרכיב מבנים מופשטים אינפורמטיביים מתוך נתונים גולמיים.

תפיסת מכונה היא היכולת להשתמש בקלט מחיישנים (כגון מצלמות, מיקרופונים, אותות אלחוטיים וחיישני לידאר, סונאר, מכ”ם וחיישני מישוש פעילים כדי להסיק היבטים של העולם. היישומים כוללים זיהוי דיבור, זיהוי פנים וזיהוי אובייקטים.
ראייה ממוחשבת היא היכולת לנתח קלט חזותי.

אינטליגנציה חברתית

Kismet, רובוט בעל כישורים חברתיים בסיסיים מחשוב אפקטיבי הוא מטריה בינתחומית הכוללת מערכות שמזהות, מפרשות, מעבדות או מדמות תחושה, רגש ומצב רוח אנושיים. לדוגמה, כמה עוזרים וירטואליים מתוכנתים לדבר בשיחה או אפילו להתבכיין בהומור; זה גורם להם להיראות רגישים יותר לדינמיקה הרגשית של אינטראקציה אנושית, או להקל בדרך אחרת על אינטראקציה בין אדם למחשב.
עם זאת, זה נוטה לתת למשתמשים תמימים תפיסה לא מציאותית של עד כמה סוכני מחשבים קיימים באמת אינטליגנטים.
הצלחות מתונות הקשורות למחשוב רגשי כוללות ניתוח סנטימנט טקסטואלי ולאחרונה, ניתוח סנטימנט רב-מודאלי), שבו AI מסווג את ההשפעות שמוצגות על ידי נושא מצולם.

מכונה בעלת אינטליגנציה כללית יכולה לפתור מגוון רחב של בעיות עם רוחב ורבגוניות בדומה לאינטליגנציה האנושית. יש כמה רעיונות מתחרים לגבי איך לפתח בינה כללית מלאכותית. הנס מורבק ומרווין מינסקי טוענים שניתן לשלב עבודה בתחומים אינדיבידואליים שונים לתוך מערכת מתקדמת מרובה סוכנים או ארכיטקטורה קוגניטיבית עם אינטליגנציה כללית.
פדרו דומינגוס מקווה שקיים ” אלגוריתם מאסטר ” פשוט מבחינה רעיונית, אך קשה מבחינה מתמטית, שיכול להוביל ל-AGI.
אחרים מאמינים שמאפיינים אנתרופומורפיים כמו אמוח מלאכותי או סימולציה של התפתחות הילד יגיע יום אחד לנקודה קריטית שבה תופיע אינטליגנציה כללית.

 

כלים
חיפוש ואופטימיזציה
AI יכול לפתור בעיות רבות על ידי חיפוש מושכל של פתרונות אפשריים רבים. ניתן לצמצם את ההיגיון לביצוע חיפוש. לדוגמה, ניתן לראות הוכחה לוגית כחיפוש אחר נתיב המוביל מהנחות יסוד למסקנות, כאשר כל שלב הוא יישום של כלל מסקנות. אלגוריתמי תכנון מחפשים דרך עצים של יעדים ותת-מטרות, בניסיון למצוא נתיב ליעד יעד, תהליך הנקרא ניתוח מטרות-אמצעים. אלגוריתמים רובוטיים להזזת איברים ולתפיסת חפצים משתמשים בחיפושים מקומיים במרחב התצורה.

חיפושים ממצים פשוטים לעתים נדירות מספיקים לרוב הבעיות בעולם האמיתי: מרחב החיפוש (מספר המקומות לחיפוש) גדל במהירות למספרים אסטרונומיים. התוצאה היא חיפוש איטי מדי או לעולם לא מסתיים. הפתרון, לבעיות רבות, הוא להשתמש ב”היוריסטיקה ” או “כללי אצבע” שמתעדפים בחירות לטובת אלו בעלי סיכוי גבוה יותר להגיע למטרה ולעשות זאת במספר קצר יותר של שלבים. במתודולוגיות חיפוש מסוימות, היוריסטיקה יכולה לשמש גם לביטול כמה אפשרויות שסביר שלא יובילו למטרה (נקראת ” גיזום עץ החיפוש “).
היוריסטיקה מספקת לתוכנית “הניחוש הטוב ביותר”היוריסטיקה מגבילה את החיפוש אחר פתרונות לגודל מדגם קטן יותר.

סוג שונה מאוד של חיפוש הגיע לגדולה בשנות ה-90, בהתבסס על התיאוריה המתמטית של אופטימיזציה. עבור בעיות רבות, ניתן להתחיל את החיפוש עם צורה כלשהי של ניחוש ולאחר מכן לחדד את הניחוש בהדרגה עד שלא ניתן לבצע חידודים נוספים. ניתן לדמיין את האלגוריתמים הללו כטיפוס על גבעה עיוורת: אנו מתחילים את החיפוש בנקודה אקראית בנוף, ולאחר מכן, בקפיצות או בצעדים, אנו ממשיכים להזיז את הניחוש שלנו במעלה הגבעה, עד שנגיע לפסגה. אלגוריתמי אופטימיזציה קשורים אחרים כוללים אופטימיזציה אקראית, חיפוש קרן ומטהאוריסטיקה כמו חישול מדומה. חישוב אבולוציונימשתמש בצורה של חיפוש אופטימיזציה. לדוגמה, הם עשויים להתחיל עם אוכלוסיית אורגניזמים (הניחושים) ואז לאפשר להם לעבור מוטציה ולשלב מחדש, לבחור רק את המתאימים ביותר לשרוד כל דור (חידוד הניחושים). אלגוריתמים אבולוציוניים קלאסיים כוללים אלגוריתמים גנטיים, תכנות ביטוי גנים ותכנות גנטי.
לחלופין, תהליכי חיפוש מבוזרים יכולים לתאם באמצעות אלגוריתמי אינטליגנציה נחילים.
שני אלגוריתמים פופולריים של נחילים המשמשים בחיפוש הם אופטימיזציה של נחילי חלקיקים (בהשראת להקת ציפורים ואופטימיזציה של מושבת נמלים(בהשראת שבילי נמלים.

לוגיקה משמשת לייצוג ידע ופתרון בעיות, אך ניתן ליישם אותה גם על בעיות אחרות. לדוגמה, אלגוריתם satplan משתמש בלוגיקה לתכנון ותכנות לוגיקה אינדוקטיבית היא שיטה ללמידה.

במחקר בינה מלאכותית נעשה שימוש במספר צורות שונות של לוגיקה. לוגיקה פרופוזיציונית כוללת פונקציות אמת כמו “או” ו”לא”. לוגיקה מסדר ראשון מוסיפה מכמתים ופרדיקטים ויכולה לבטא עובדות על עצמים, תכונותיהם ויחסיהם זה עם זה. היגיון מטושטש מקצה “דרגת אמת” (בין 0 ל-1) להצהרות מעורפלות כגון “אליס זקנה” (או עשירה, או גבוהה או רעבה), שאינן מדויקות מדי מבחינה לשונית מכדי להיות נכונות או שקריות לחלוטין. היגיון ברירת מחדל, לוגיקה לא מונוטונית וקיבולהם צורות של לוגיקה שנועדו לעזור בהנמקת ברירת מחדל ובבעיית ההסמכה. מספר הרחבות של לוגיקה תוכננו לטפל בתחומי ידע ספציפיים, כגון לוגיקה של תיאור ; חשבון מצב, חשבון אירועים וחשבון שוטף (לייצוג אירועים וזמן); חשבון סיבתי ; חשבון אמונה (תיקון אמונה) ; והגיונות מודאליים.
תוכננו גם היגיון למודל הצהרות סותרות או לא עקביות המתעוררות במערכות מרובות סוכנים, כגוןלוגיקה פרא-עקבית.

שיטות הסתברותיות להנמקה לא ודאית
מאמרים עיקריים: רשת בייסיאנית, מודל מרקוב סמוי, מסנן קלמן, מסנן חלקיקים, תורת ההחלטות ותורת השירות

צבירת ציפיות-מקסום נתוני ההתפרצות של אולד פייטפול מתחילה מניחוש אקראי, אך לאחר מכן מתכנסת בהצלחה לצביר מדויק של שני מצבי ההתפרצות המובחנים פיזית.

בעיות רבות בבינה מלאכותית (כולל חשיבה, תכנון, למידה, תפיסה ורובוטיקה) מחייבות את הסוכן לפעול עם מידע לא שלם או לא ודאי. חוקרי בינה מלאכותית המציאו מספר כלים לפתרון בעיות אלו באמצעות שיטות מתורת ההסתברות והכלכלה. רשתות בייסיאניות הן כלי מאוד כללי שניתן להשתמש בו לבעיות שונות, כולל חשיבה (באמצעות אלגוריתם ההסקה בייסיאני, למידה (באמצעות אלגוריתם הציפיות-מקסום, תכנון (באמצעות רשתות החלטות ותפיסה (באמצעות רשתות בייסיאניות דינמיות. אלגוריתמים הסתברותיים יכולים לשמש גם לסינון, חיזוי, החלקה ומציאת הסברים לזרמי נתונים, המסייעים למערכות תפיסה לנתח תהליכים המתרחשים לאורך זמן (למשל, מודלים נסתרים של מרקוב או מסנני קלמן.

מושג מפתח ממדע הכלכלה הוא ” תועלת “, מדד למידת הערך של משהו לסוכן אינטליגנטי. פותחו כלים מתמטיים מדויקים המנתחים כיצד סוכן יכול לעשות בחירות ולתכנן, תוך שימוש בתיאוריית החלטות, ניתוח החלטות, ותיאוריית ערכי מידע. כלים אלו כוללים מודלים כגון תהליכי החלטה של ​​מרקוב, רשתות החלטות דינמיות, תורת המשחקים ועיצוב מנגנונים.

מסווגים ושיטות למידה סטטיסטיות
ניתן לחלק את יישומי הבינה המלאכותית הפשוטה ביותר לשני סוגים: מסווגים (“אם מבריק אז יהלום”) ובקרים (“אם יהלום אז תרים”). עם זאת, בקרים מסווגים גם תנאים לפני הסקת פעולות, ולכן הסיווג מהווה חלק מרכזי במערכות בינה מלאכותיות רבות. מסווגים הם פונקציות המשתמשות בהתאמת דפוסיםכדי לקבוע את ההתאמה הקרובה ביותר. ניתן לכוונן אותם לפי דוגמאות, מה שהופך אותם לאטרקטיביים מאוד לשימוש ב-AI. דוגמאות אלו ידועות בתור תצפיות או דפוסים. בלמידה מפוקחת, כל דפוס שייך לכיתה מסוימת מוגדרת מראש. שיעור הוא החלטה שצריכה להתקבל. כל התצפיות בשילוב עם תוויות המחלקות שלהן ידועות כסט נתונים. כאשר מתקבלת תצפית חדשה, התצפית מסווגת על סמך ניסיון קודם.

ניתן להכשיר מסווג בדרכים שונות; ישנן גישות סטטיסטיות ולמידת מכונה רבות. עץ ההחלטות הוא אלגוריתם למידת מכונה סימבולית הפשוטה והנפוץ ביותר. אלגוריתם K-nearest neighbor היה ה-AI האנלוגי הנפוץ ביותר עד אמצע שנות ה-90. שיטות הליבה כגון מכונת התמיכה וקטור (SVM) העקרו את ה-k-השכן הקרוב בשנות ה-90. על פי הדיווחים, הסיווג הנאיבי של Bayes הוא “הלומד הנפוצ ביותר” בגוגל, בין השאר בשל יכולת ההרחבה שלו. רשתות עצביות משמשות גם לסיווג.

ביצועי המסווגים תלויים מאוד במאפיינים של הנתונים שיש לסווג, כגון גודל מערך הנתונים, התפלגות הדגימות בין מחלקות, מימדיות ורמת הרעש. מסווגים מבוססי מודלים מתפקדים היטב אם המודל המשוער מתאים מאוד לנתונים בפועל. אחרת, אם אין מודל תואם זמין, ואם דיוק (ולא מהירות או מדרגיות) הוא הדאגה היחידה, החוכמה המקובלת היא שמסווגים מפלים (במיוחד SVM) נוטים להיות מדויקים יותר ממסווגים מבוססי מודל כגון “Bayes נאיבי” על רוב מערכי הנתונים המעשיים.

רשתות עצבים מלאכותיות
רשת עצבית היא קבוצה מקושרת של צמתים, בדומה לרשת העצומה של נוירונים במוח האנושי.

רשתות עצביות נוצרו בהשראת הארכיטקטורה של נוירונים במוח האנושי. “נוירון” פשוט N מקבל קלט מנוירונים אחרים, כאשר כל אחד מהם, כאשר הוא מופעל (או “יורה”), מטיל “הצבעה” משוקללת בעד או נגד האם הנוירון N צריך להפעיל בעצמו. למידה דורשת אלגוריתם להתאים משקלים אלה על סמך נתוני האימון; אלגוריתם פשוט אחד (שמכונה ” אש יחד, חוט יחד “) הוא להגדיל את המשקל בין שני נוירונים מחוברים כאשר הפעלה של אחד מעוררת הפעלה מוצלחת של אחר. לנוירונים יש ספקטרום רציף של הפעלה; בנוסף, נוירונים יכולים לעבד תשומות בצורה לא ליניארית במקום לשקול קולות פשוטים.

רשתות עצביות מודרניות מדגמנות יחסים מורכבים בין תשומות ויציאות ומוצאות דפוסים בנתונים. הם יכולים ללמוד פונקציות רציפות ואפילו פעולות לוגיות דיגיטליות. ניתן להתייחס לרשתות עצביות כסוג של אופטימיזציה מתמטית – הן מבצעות ירידה בשיפוע על טופולוגיה רב-ממדית שנוצרה על ידי אימון הרשת. טכניקת האימון הנפוצה ביותר היא אלגוריתם ההפצה לאחור. טכניקות למידה נוספות לרשתות עצביות הן למידה העברית (“אש יחד, חוט יחד”), GMDH או למידה תחרותית.

הקטגוריות העיקריות של רשתות הן רשתות עצביות א-ציקליות או הזנה-פורוורד (בהן האות עובר בכיוון אחד בלבד) ורשתות עצביות חוזרות (המאפשרות משוב וזיכרונות קצרי טווח של אירועי קלט קודמים). בין רשתות ההזנה-פורוורד הפופולריות ביותר הן פרסטרונים, פרסטרונים רב-שכבתיים ורשתות בסיס רדיאלי.
למידה עמוקה
ייצוג תמונות על מספר רבדים של הפשטה בלמידה עמוקה
ייצוג תמונות על מספר רבדים של הפשטה בלמידה עמוקה למידה עמוקה משתמשת במספר שכבות של נוירונים בין הכניסות והיציאות של הרשת. השכבות המרובות יכולות לחלץ בהדרגה תכונות ברמה גבוהה יותר מהקלט הגולמי. לדוגמה, בעיבוד תמונה, שכבות נמוכות עשויות לזהות קצוות, בעוד שכבות גבוהות יותר עשויות לזהות את המושגים הרלוונטיים לאדם כגון ספרות או אותיות או פרצופים. למידה עמוקה שיפרה באופן דרסטי את הביצועים של תוכניות בתתי תחומים חשובים רבים של בינה מלאכותית, כולל ראייה ממוחשבת, זיהוי דיבור, סיווג תמונות ואחרים.

למידה עמוקה משתמשת לעתים קרובות ברשתות עצביות קונבולוציוניות עבור רבים או כל השכבות שלה. בשכבה קונבולוציונית, כל נוירון מקבל קלט רק מאזור מוגבל של השכבה הקודמת הנקרא שדה הקליטה של ​​הנוירון. זה יכול להפחית באופן משמעותי את מספר הקשרים המשוקללים בין נוירונים, ויוצר היררכיה הדומה לארגון של קליפת הראייה של בעלי החיים.

ברשת עצבית חוזרת (RNN) האות יתפשט דרך שכבה יותר מפעם אחת; לפיכך, RNN הוא דוגמה ללמידה עמוקה. ניתן לאמן RNNs על ידי ירידה בשיפוע, אולם שיפועים ארוכי טווח המופצים לאחור יכולים “להיעלם” (כלומר, הם יכולים לשאוף לאפס) או “להתפוצץ” (כלומר, הם יכולים להטות אינסוף), המכונה בעיית השיפוע הנעלם. טכניקת זיכרון לטווח קצר (LSTM) יכולה למנוע זאת ברוב המקרים.

עבור הפרויקט הזה של האמן ג’וזף איירל ה-AI היה צריך ללמוד את הדפוסים האופייניים בצבעים ובמשיכות המכחול של צייר הרנסנס רפאל. הדיוקן מציג את פניה של השחקנית אורנלה מוטי, “צוירו” על ידי AI בסגנון רפאל
AI רלוונטי לכל משימה אינטלקטואלית. טכניקות בינה מלאכותית מודרניות הן נפוצות והן רבות מכדי לפרט כאן. לעתים קרובות, כאשר טכניקה מגיעה לשימוש מיינסטרים, היא כבר לא נחשבת לבינה מלאכותית; תופעה זו מתוארת כאפקט AI.

בשנות ה-2010, יישומי בינה מלאכותית היו בלב תחומי המחשוב המצליחים ביותר מבחינה מסחרית, והפכו למאפיין בכל מקום בחיי היומיום. בינה מלאכותית משמשת במנועי חיפוש (כגון חיפוש Google, מיקוד פרסומות מקוונות, מערכות המלצות (מוצעות על ידי נטפליקס, יוטיוב או אמזון, הגברת תעבורת אינטרנט, פרסום ממוקד AdSense, Facebook, עוזרים וירטואליים (כגון סירי או אלקסה,כלי רכב אוטונומיים (כולל מל”טים, ADAS ומכוניות בנהיגה עצמית, תרגום שפה אוטומטי Microsoft Translator, Google Translate, זיהוי פנים Face ID של אפל או DeepFace של Microsoft, תיוג תמונות (בשימוש פייסבוק, iPhoto ו- TikTok של אפל, סינון דואר זבל וצ’אט בוטים (כגון ChatGPT.

ישנם גם אלפי יישומי AI מוצלחים המשמשים לפתרון בעיות עבור תעשיות או מוסדות ספציפיים. כמה דוגמאות הן אחסון אנרגיה, זיופים עמוקים, אבחון רפואי, לוגיסטיקה צבאית, מדיניות חוץ, או ניהול שרשרת אספקה.

 

משחק משחק היה מבחן לחוזקה של AI מאז שנות ה-50. Deep Blue הפכה למערכת השחמט הממוחשבת הראשונה שניצחה אלוף עולם בשחמט, גארי קספרוב, ב-11 במאי 1997. בשנת 2011, בסכנה ! משחק תערוכת חידון, מערכת המענה לשאלות של יבמ, ווטסון, ניצחה את שני הסיכונים הגדולים ביותר! האלופים, בראד ראטר וקן ג’נינגס, בהפרש משמעותי. במרץ 2016, AlphaGo ניצחה ב-4 מתוך 5 משחקי Go במשחק עם אלוף GoLee Sedol, הפכה למערכת משחקי Go במחשב הראשונה שניצחה שחקן Go מקצועי ללא מוגבלות. תוכניות אחרות מטפלות במשחקי מידע לא מושלם ; כגון לפוקר ברמה על אנושית, Pluribus ו Cepheus. DeepMind בשנות ה-2010 פיתחה “בינה מלאכותית מוכללת” שיכולה ללמוד משחקי Atari רבים ומגוונים בעצמה.

עד 2020, מערכות עיבוד שפה טבעית כמו ה- GPT-3 העצומה (אז הרשת העצבית המלאכותית הגדולה ביותר) התאימו את הביצועים האנושיים במדדים קיימים, אם כי מבלי שהמערכת השיגה הבנה תקינה של תוכן המדדים. AlphaFold 2 של DeepMind (2020) הדגים את היכולת להעריך, בשעות ולא חודשים, את המבנה התלת-ממדי של חלבון. יישומים אחרים מנבאים את התוצאה של החלטות שיפוטיות, יוצרים אמנות (כגון שירה או ציור) ומוכיחים משפטים מתמטיים.

כלי גלאי תוכן בינה מלאכותית הם יישומי תוכנה המשתמשים באלגוריתמים של בינה מלאכותית (AI) כדי לנתח ולזהות סוגים ספציפיים של תוכן במדיה דיגיטלית, כגון טקסט, תמונות וסרטונים. כלים אלו משמשים בדרך כלל לזיהוי תוכן בלתי הולם, כגון שגיאות דיבור, תמונות אלימות או מיניות ודואר זבל, בין היתר.

 

כמה יתרונות של שימוש בכלי גלאי תוכן בינה מלאכותית כוללים יעילות ודיוק משופרים באיתור תוכן לא הולם, הגברת הבטיחות והאבטחה למשתמשים, והפחתת הסיכונים המשפטיים והמוניטין עבור אתרי אינטרנט ופלטפורמות.

רמזורים חכמים

רמזורים חכמים מלאכותיים משתמשים במצלמות עם מכ”ם, חיישני מיקום אקוסטיים קוליים ואלגוריתמים חזויים כדי לשפר את זרימת התנועה
רמזורים חכמים פותחו בקרנגי מלון מאז 2009. פרופסור סטיבן סמית’ הקים חברה מאז Surtrac שהתקינה מערכות בקרת תנועה חכמות ב-22 ערים.
עלות ההתקנה היא כ-20,000 דולר לצומת.
זמן הנסיעה צומצם ב-25% וזמן ההמתנה לפקקים הצטמצם ב-40% בצמתים שהותקן.

קניין רוחני
בשנת 2019, WIPO דיווחה כי בינה מלאכותית היא הטכנולוגיה המתפתחת הפורה ביותר מבחינת מספר בקשות הפטנטים והפטנטים המוענקים, האינטרנט של הדברים הוערך כגדול ביותר מבחינת גודל השוק. אחריו, שוב בגודל השוק, הגיעו טכנולוגיות ביג דאטה, רובוטיקה, בינה מלאכותית, הדפסת תלת מימד והדור החמישי של שירותים ניידים (5G). מאז הופעת הבינה המלאכותית בשנות ה-50, הוגשו 340,000 בקשות לפטנטים הקשורים לבינה מלאכותית על ידי חדשנים ו-1.6 מיליון מאמרים מדעיים פורסמו על ידי חוקרים, כאשר רוב כל הגשות הפטנטים הקשורות לבינה מלאכותית פורסמו מאז 2013. חברות מייצגות 26 מתוך 30 המובילות מבקשי פטנטים בינה מלאכותית, כאשר אוניברסיטאות או ארגוני מחקר ציבוריים אחראים לארבעה הנותרים.

היחס בין מאמרים מדעיים להמצאות ירד משמעותית מ-8:1 ב-2010 ל-3:1 ב-2016, מה שמיוחס כמעיד על מעבר ממחקר תיאורטי לשימוש בטכנולוגיות בינה מלאכותית במוצרים ושירותים מסחריים. למידת מכונההיא טכניקת הבינה המלאכותית הדומיננטית הנחשפת בפטנטים והיא נכללת ביותר משליש מכל ההמצאות שזוהו (134,777 פטנטים למידת מכונה שהוגשו על סך 167,038 פטנטים בינה מלאכותית שהוגשו בשנת 2016), עם ראייה ממוחשבתלהיות היישום הפונקציונלי הפופולרי ביותר. פטנטים הקשורים לבינה מלאכותית לא רק חושפים טכניקות ויישומים של בינה מלאכותית, הם מתייחסים לרוב גם לתחום יישומים או לתעשייה. 20 תחומי יישום זוהו בשנת 2016 וכללו, בסדר גודל: טלקומוניקציה (15 אחוז), תחבורה (15 אחוז), מדעי החיים והרפואה (12 אחוזים), ומכשירים אישיים, מחשוב ואינטראקציה בין אדם למחשב (11 אחוז).. מגזרים אחרים כללו בנקאות, בידור, אבטחה, תעשייה וייצור, חקלאות ורשתות (כולל רשתות חברתיות, ערים חכמות ואינטרנט של הדברים).
ל-IBM יש את הפורטפוליו הגדול ביותר של פטנטים בינה מלאכותית עם 8,290 בקשות פטנט, ואחריה מיקרוסופט עם 5,930 בקשות לפטנטים.

 

אלן טיורינג כתב ב-1950 “אני מציע לשקול את השאלה ‘האם מכונות יכולות לחשוב’?” הוא יעץ לשנות את השאלה מהאם מכונה “חושבת”, ל”האם אפשר או לא למכונות להראות התנהגות אינטליגנטית”. הוא הגה את מבחן טיורינג, המודד את יכולתה של מכונה לדמות שיחה אנושית.
מכיוון שאנו יכולים לצפות רק בהתנהגות המכונה, אין זה משנה אם היא “בעצם” חושבת או שיש לה ממש “מוח”.
טיורינג מציין שאיננו יכולים לקבוע את הדברים האלה לגבי אנשים אחרים אבל “זה רגיל לקיים מוסכמה מנומסת שכולם חושבים.

ראסל ונורביג מסכימים עם טיורינג ש-AI חייב להיות מוגדר במונחים של “משחק” ולא “חשיבה”. עם זאת, הם קריטיים שהבדיקה משווה בין מכונות לאנשים. ” טקסטים של הנדסת אווירונאוטיקה “, הם כתבו, “אינם מגדירים את מטרת התחום שלהם כיצירת ‘מכונות שעפות כל כך בדיוק כמו יונים שהן יכולות לרמות ביונים אחרות ‘ “. מייסד הבינה המלאכותית ג’ון מקארתי הסכים וכתב כי “מלאכותי מודיעין אינו, בהגדרה, הדמיה של אינטליגנציה אנושית”.

מקארתי מגדיר אינטליגנציה כ”חלק החישובי של היכולת להשיג מטרות בעולם”. מייסד AI אחר, מרווין מינסקי, מגדיר זאת באופן דומה כ”היכולת לפתור בעיות קשות”. הגדרות אלו רואות את האינטליגנציה במונחים של בעיות מוגדרות היטב עם פתרונות מוגדרים היטב, כאשר גם הקושי של הבעיה וגם ביצוע התוכנית הם מדדים ישירים ל”אינטליגנציה” של המכונה – וללא דיון פילוסופי אחר. נדרש, או אולי אפילו לא יהיה אפשרי.

הגדרה שאומצה גם על ידי גוגל – מתמחה מרכזי בתחום הבינה המלאכותית. הגדרה זו קבעה את יכולתן של מערכות לסנתז מידע כביטוי של אינטליגנציה, בדומה לאופן שבו היא מוגדרת באינטליגנציה ביולוגית.

 

הערכת גישות ל-AI
שום תיאוריה או פרדיגמה מאחדת לא הנחתה את מחקר הבינה המלאכותית במשך רוב ההיסטוריה שלו. ההצלחה חסרת התקדים של למידת מכונה סטטיסטית בשנות ה-2010 האפילה על כל הגישות האחרות (עד כדי כך שמקורות מסוימים, במיוחד בעולם העסקים, משתמשים במונח “בינה מלאכותית” במשמעות “למידת מכונה עם רשתות עצביות”).
גישה זו היא לרוב תת-סמלית, מסודרת, רכה וצרה (ראה להלן).
המבקרים טוענים שייתכן שיידרשו לעיין מחדש בשאלות אלו על ידי הדורות הבאים של חוקרי בינה מלאכותית.

 

AI סמלי וגבולותיו
בינה מלאכותית סמלית (או ” GOFAI “) דימה את ההיגיון המודע ברמה גבוהה שאנשים משתמשים בה כאשר הם פותרים חידות, מבטאים נימוקים משפטיים ועושים מתמטיקה. הם הצליחו מאוד במשימות “חכמות” כגון מבחני אלגברה או IQ. בשנות ה-60 הציעו ניואל וסימון את השערת מערכות הסמלים הפיזיקליים: “למערכת סמלים פיזיקליים יש את האמצעים ההכרחיים והמספיקים לפעולה אינטליגנטית כללית”.

עם זאת, הגישה הסמלית נכשלה במשימות רבות שבני אדם פותרים בקלות, כגון למידה, זיהוי אובייקט או חשיבה רגילה. הפרדוקס של Moravec הוא הגילוי שמשימות “אינטליגנטית” ברמה גבוהה היו קלות עבור AI, אך משימות “אינסטינקטיביות” ברמה נמוכה היו קשות ביותר. הפילוסוף הוברט דרייפוס טען מאז שנות ה-60 שהמומחיות האנושית תלויה באינסטינקט לא מודע ולא במניפולציה מודעת של סמלים, וב”תחושה” של המצב, ולא בידע סמלי מפורש. למרות שהטיעונים שלו זכו ללעג והתעלמו כשהם הוצגו לראשונה, בסופו של דבר, מחקר בינה מלאכותית הגיע להסכמה.

הבעיה לא נפתרה: חשיבה תת-סמלית יכולה לעשות הרבה מאותן טעויות בלתי ניתנות לבירור שעושה האינטואיציה האנושית, כמו הטיה אלגוריתמית. מבקרים כמו נועם חומסקי טוענים שהמשך מחקר בנושא בינה מלאכותית סמלית עדיין יהיה הכרחי כדי להשיג אינטליגנציה כללית, בין השאר מכיוון שבינה מלאכותית תת-סמלית היא התרחקות מבינה מלאכותית שניתן להסביר : זה יכול להיות קשה או בלתי אפשרי להבין מדוע תוכנית בינה מלאכותית סטטיסטית מודרנית קיבלה החלטה מסוימת. התחום המתפתח של בינה מלאכותית נוירו-סמלית מנסה לגשר בין שתי הגישות.

 

מסודר לעומת מחורבן
“מסודרים” מקווים שהתנהגות אינטליגנטית מתוארת באמצעות עקרונות פשוטים ואלגנטיים (כגון לוגיקה, אופטימיזציה או רשתות עצביות.
“מחורבנים” מצפים שזה מצריך בהכרח פתרון של מספר רב של בעיות שאינן קשורות (במיוחד בתחומים כמו חשיבה בשכל הישר.
סוגיה זו נדונה באופן פעיל בשנות ה-70 וה-80, אך בשנות ה-90 שיטות מתמטיות וסטנדרטים מדעיים מוצקים הפכו לנורמה, מעבר שראסל ונורוויג כינו “הניצחון של המסודרים”.

מחשוב רך לעומת קשה
מציאת פתרון נכון או אופטימלי מוכיחים שהוא בלתי נסבל לבעיות חשובות רבות.
מחשוב רך הוא קבוצה של טכניקות, כולל אלגוריתמים גנטיים, לוגיקה מטושטשת ורשתות עצביות, שסובלנות לחוסר דיוק, אי ודאות, אמת חלקית וקירוב.
מחשוב רך הוצג בסוף שנות ה-80 ותוכניות ה-AI המצליחות ביותר במאה ה-21 הן דוגמאות למחשוב רך עם רשתות עצביות.

 

בינה מלאכותית צרה לעומת כללית
חוקרי בינה מלאכותית חלוקים באשר לשאלה האם לחתור למטרות של בינה כללית מלאכותית ואינטליגנציה על בינה מלאכותית כללית) באופן ישיר או לפתור כמה שיותר בעיות ספציפיות בינה מלאכותית צרה בתקווה שפתרונות אלו יובילו בעקיפין למטרות ארוכות הטווח של התחום.
אינטליגנציה כללית קשה להגדרה וקשה למדידה, ובינה מלאכותית מודרנית זכתה להצלחות ניתנות לאימות על ידי התמקדות בבעיות ספציפיות עם פתרונות ספציפיים.
תת-תחום הניסויים של בינה כללית מלאכותית חוקר תחום זה באופן בלעדי.

 

תודעת מכונה, חוש ותודעה
הפילוסופיה של התודעה אינה יודעת אם למכונה יכולה להיות שכל, תודעה ומצבים נפשיים, באותו מובן שיש לבני אדם. נושא זה לוקח בחשבון את החוויות הפנימיות של המכונה, ולא את ההתנהגות החיצונית שלה. מחקר בינה מלאכותית מיינסטרימית רואה בסוגיה זו לא רלוונטית מכיוון שהיא אינה משפיעה על מטרות התחום. סטיוארט ראסל ופיטר נורוויג מציינים שלרוב חוקרי הבינה המלאכותית “לא אכפת מה- כל עוד התוכנית עובדת, לא אכפת להם אם אתה קורא לזה סימולציה של אינטליגנציה או אינטליגנציה אמיתית”.
עם זאת, השאלה הפכה למרכזית בפילוסופיית הנפש.
זוהי גם בדרך כלל השאלה המרכזית העומדת על הפרק בבינה מלאכותית בסיפורת.

 

דוד צ’למרס זיהה שתי בעיות בהבנת הנפש, שאותן כינה הבעיות ה”קשות” וה”קלות” של התודעה. הבעיה הקלה היא להבין כיצד המוח מעבד אותות, מתכנן תוכניות ושולט בהתנהגות. הבעיה הקשה היא להסביר איך זה מרגיש או למה זה צריך להרגיש כמו משהו בכלל.
קל להסביר את עיבוד המידע האנושי, אולם קשה להסביר את החוויה הסובייקטיבית האנושית.
לדוגמה, קל לדמיין אדם עיוור צבעים שלמד לזהות אילו עצמים בשדה הראייה שלו הם אדומים, אך לא ברור מה יידרש מהאדם לדעת איך נראה אדום.

חישוביות ופונקציונליזם
חישוביות היא העמדה בפילוסופיית הנפש לפיה המוח האנושי הוא מערכת עיבוד מידע וכי חשיבה היא סוג של מחשוב. חישוביות טוענת שהקשר בין נפש וגוף דומה או זהה ליחס בין תוכנה לחומרה ולכן עשוי להיות פתרון לבעיית גוף-נפש. עמדה פילוסופית זו נוצרה בהשראת עבודתם של חוקרי בינה מלאכותית ומדענים קוגניטיביים בשנות ה-60 והוצעה במקור על ידי הפילוסופים ג’רי פודור והילרי פוטנם.

הפילוסוף ג’ון סירל אפיין את העמדה הזו כ”בינה מלאכותית חזקה “: “למחשב המתוכנת כהלכה עם הכניסות והיציאות הנכונות יהיה מוח בדיוק באותו מובן של בני אדם יש מוח.
” סירל מנגד את הקביעה הזו בטיעון החדר הסיני שלו, שמנסה להראות שגם אם מכונה מדמה בצורה מושלמת התנהגות אנושית, עדיין אין סיבה להניח שגם לה יש שכל.

זכויות רובוטים
אם למכונה יש מחשבה וחוויה סובייקטיבית, אז אולי יש לה גם תחושה (היכולת להרגיש), ואם כן, אז היא גם יכולה לסבול, וכך היא תהיה זכאית לזכויות מסוימות.
כל זכויות רובוט היפותטיות יהיו על ספקטרום עם זכויות בעלי חיים וזכויות אדם.
סוגיה זו נחשבה בסיפורת במשך מאות שנים, וכעת היא נשקללת על ידי, למשל, המכון לעתיד של קליפורניה ; עם זאת, המבקרים טוענים שהדיון מוקדם מדי.

עתיד
מודיעין על
אינטליגנציה על, היפר-אינטליגנציה או אינטליגנציה על-אנושית, היא גורם היפותטי שיחזיק באינטליגנציה העולה בהרבה על זו של המוח האנושי הבהיר והמוכשר ביותר. מודיעין-על עשוי להתייחס גם לצורה או לדרגת המודיעין שבידי סוכן כזה.

אם מחקר על בינה כללית מלאכותית ייצר תוכנה חכמה מספיק, היא עשויה להיות מסוגלת לתכנת מחדש ולשפר את עצמה. התוכנה המשופרת תהיה אפילו טובה יותר בשיפור עצמה, מה שיוביל לשיפור עצמי רקורסיבי. האינטליגנציה שלו תגדל באופן אקספוננציאלי בפיצוץ מודיעיני ויכולה לעלות באופן דרמטי על בני אדם. סופר המדע הבדיוני ורנור וינג’ כינה את התרחיש הזה בשם “הסינגולריות”. מכיוון שקשה או בלתי אפשרי לדעת את גבולות האינטליגנציה או את היכולות של מכונות על אינטליגנטיות, הייחודיות הטכנולוגית היא התרחשות שמעבר לה אירועים בלתי צפויים או אפילו בלתי נתפסים.

מעצב הרובוטים הנס מורבק, הקיברנטיקאי קווין וורוויק והממציא ריי קורצווייל חזו שבני אדם ומכונות יתמזגו בעתיד לסייבורגים בעלי יכולת ועוצמה רבה יותר מכל אחד מהם. לרעיון הזה, שנקרא טרנס-הומניזם, יש שורשים באלדוס האקסלי ורוברט אטינגר.

אדוארד פרדקין טוען ש”אינטליגנציה מלאכותית היא השלב הבא באבולוציה”, רעיון שהוצע לראשונה על ידי ” דרווין בין המכונות ” של סמואל באטלר עוד ב-1863, והורחב על ידי ג’ורג’ דייסון בספרו בעל אותו השם בשנת 1998.
סיכונים
אבטלה טכנולוגית
בעבר, הטכנולוגיה נטתה להגדיל ולא לצמצם את סך התעסוקה, אבל כלכלנים מודים ש”אנחנו בטריטוריה לא ידועה” עם AI. סקר שנערך בקרב כלכלנים הראה אי הסכמה לגבי האם השימוש הגובר ברובוטים ובינה מלאכותית יגרום לעלייה ניכרת באבטלה לטווח ארוך, אבל הם מסכימים בדרך כלל שזה יכול להיות יתרון נקי אם רווחי הפריון יחולקו מחדש. הערכות סובייקטיביות של הסיכון שונות מאוד; לדוגמה, מייקל אוסבורן וקארל בנדיקט פריי מעריכים ש-47% מהמשרות בארה”ב נמצאות ב”סיכון גבוה” לאוטומציה פוטנציאלית, בעוד שדו”ח של ה-OECD מסווג רק 9% מהמשרות בארה”ב כ”סיכון גבוה”.

בניגוד לגלי אוטומציה קודמים, משרות רבות ממעמד הביניים עלולות להתבטל על ידי בינה מלאכותית; האקונומיסט קובע כי “הדאגה שבינה מלאכותית יכולה לעשות לעבודות צווארון לבן מה שכוח הקיטור עשה לצווארון כחול במהלך המהפכה התעשייתית” היא “שווה לקחת ברצינות”.
משרות בסיכון קיצוני נע בין עורכי דין לטבחי מזון מהיר, בעוד שהביקוש לעבודה צפוי לגדול למקצועות הקשורים לטיפול, החל משירותי בריאות אישיים ועד לכמורה.

שחקנים גרועים ובינה מלאכותית עם נשק
בינה מלאכותית מספקת מספר כלים שימושיים במיוחד עבור ממשלות אוטוריטריות : תוכנות ריגול חכמות, זיהוי פנים וזיהוי קול מאפשרים מעקב נרחב ; מעקב כזה מאפשר למידת מכונה לסווג אויבים פוטנציאליים של המדינה ויכול למנוע מהם להסתתר; מערכות המלצות יכולות למקד בדיוק תעמולה ומידע שגוי להשפעה מירבית; זיופים עמוקים מסייעים בהפקת מידע מוטעה; AI מתקדם יכול לקבל החלטות מרוכזותתחרותי יותר עם מערכות ליברליות ומבוזרות כמו שווקים.

טרוריסטים, פושעים ומדינות נוכלות עשויים להשתמש בצורות אחרות של בינה מלאכותית בנשק כגון לוחמה דיגיטלית מתקדמת ונשק אוטונומי קטלני. עד 2015, דווח על יותר מחמישים מדינות שחקרו רובוטים בשדה הקרב.

AI למידת מכונה מסוגלת גם לעצב עשרות אלפי מולקולות רעילות תוך שעות ספורות.

הטיה אלגוריתמית
תוכניות AI יכולות להיות מוטות לאחר למידה מנתונים מהעולם האמיתי. זה בדרך כלל לא מוצג על ידי מעצבי המערכת אלא נלמד על ידי התוכנית, ולכן המתכנתים לרוב לא מודעים לכך שההטיה קיימת. הטיה יכולה להיות מוצגת בשוגג על ידי האופן שבו נתוני אימון נבחרים. זה יכול להופיע גם מתאמים : בינה מלאכותית משמשת כדי לסווג פרטים לקבוצות ולאחר מכן לבצע תחזיות בהנחה שהפרט יהיה דומה לחברים אחרים בקבוצה. במקרים מסוימים, הנחה זו עשויה להיות בלתי הוגנת. דוגמה לכך היא COMPAS, תוכנית מסחרית בשימוש נרחב בבתי המשפט בארה”בלהעריך את הסבירות של נאשם להפוך ל- redivist. ProPublica טוענת כי רמת הסיכון לרצידיביזם שהוקצה ל-COMPAS של נאשמים שחורים צפויה להיות מוערכת בהרבה מזו של נאשמים לבנים, למרות העובדה שלתוכנית לא נאמר גזעי הנאשמים.

בעיות שוויון בריאות עלולות להחמיר גם כאשר מיפוי רבים לרבים מתבצע מבלי לנקוט בצעדים כדי להבטיח שוויון לאוכלוסיות בסיכון להטיה. בשלב זה לא קיימים כלים ותקנות ממוקדי הון כדי להבטיח ייצוג ושימוש של יישומי הון. דוגמאות נוספות שבהן הטיה אלגוריתמית יכולה להוביל לתוצאות לא הוגנות הן כאשר נעשה שימוש בבינה מלאכותית לדירוג אשראי או גיוס עובדים.

בכנס שלה לשנת 2022 בנושא הגינות, אחריות ושקיפות (ACM FAccT 2022) האגודה למכונות מחשוב, בסיאול, דרום קוריאה, הציגה ופרסמה ממצאים הממליצים שעד שיוכחו כי מערכות בינה מלאכותית ורובוטיקה נקיות מטעויות הטיה, הן לא בטוחים ויש לצמצם את השימוש ברשתות עצביות לומדות את עצמן המאומנות על מקורות עצומים ובלתי מוסדרים של נתונים פגומים באינטרנט.

סיכון קיומי
AI סופר-אינטליגנט עשוי לשפר את עצמו עד כדי כך שבני אדם לא יכלו לשלוט בו. זה יכול, כפי שמגדיר זאת הפיזיקאי סטיבן הוקינג, ” לאיית את סופו של המין האנושי “. הפילוסוף ניק בוסטרום טוען שבינה מלאכותית מספיק חכמה, אם היא תבחר בפעולות המבוססות על השגת מטרה כלשהי, תפגין התנהגות מתכנסת כמו רכישת משאבים או הגנה על עצמה מפני סגירה. אם המטרות של בינה מלאכותית זו אינן משקפות את מטרות האנושות, ייתכן שהיא תצטרך לפגוע באנושות כדי לרכוש משאבים נוספים או למנוע מעצמה להיסגר, בסופו של דבר כדי להשיג טוב יותר את מטרתה. הוא מסיק שבינה מלאכותית מהווה סיכון לאנושות, צנועה או ” ידידותית ככל שתהיה”המטרות המוצהרות שלו עשויות להיות.

רובין טוען ש”כל נדיבות מתקדמת מספיק עשויה להיות בלתי ניתנת להבחנה מרוענות.

” בני אדם לא צריכים להניח שמכונות או רובוטים יתייחסו אלינו בחיוב כי אין סיבה אפריורית להאמין שהם יחלקו את שיטת המוסר שלנו
דעתם של מומחים ומקורבים בתעשייה מעורבת, עם חלקים נכבדים מודאגים ובלתי מודאגים מהסיכון של AI בסופו של דבר בעל יכולת על-אנושית. סטיבן הוקינג, מייסד מיקרוסופט ביל גייטס, הפרופסור להיסטוריה יובל נוח הררי ומייסד SpaceX אילון מאסק הביעו כולם דאגות רציניות לגבי עתיד הבינה המלאכותית. טיטאנים טכנולוגיים בולטים כולל פיטר ת’יל אמזון שירותי אינטרנט ומאסק התחייבו יותר ממיליארד דולר לחברות ללא מטרות רווח שדוגלות בפיתוח בינה מלאכותית אחראית, כמו OpenAI וה-מכון עתיד החיים. מארק צוקרברג (מנכ”ל, פייסבוק) אמר כי בינה מלאכותית מועילה בצורתה הנוכחית ותמשיך לסייע לבני אדם.
מומחים אחרים טוענים שהסיכונים רחוקים מספיק בעתיד כדי שלא יהיה כדאי לחקור, או שבני אדם יהיו בעלי ערך מנקודת המבט של מכונה סופר אינטליגנטית.
רודני ברוקס, במיוחד, אמר שבינה מלאכותית “זדונית” עדיין נמצאת במרחק של מאות שנים.

זכויות יוצרים
יכולות קבלת ההחלטות של AI מעלה את שאלת האחריות המשפטית ומעמד זכויות היוצרים של יצירות שנוצרו. נושאים אלו עוברים עידון בתחומי שיפוט שונים.
מכונות אתיות

בינה מלאכותית ידידותית הן מכונות שתוכננו מההתחלה כדי למזער סיכונים ולבצע בחירות המועילות לבני אדם. אליעזר יודקובסקי, שטבע את המונח, טוען שפיתוח בינה מלאכותית ידידותית צריכה להיות בעדיפות מחקרית גבוהה יותר: היא עשויה לדרוש השקעה גדולה ויש להשלים אותה לפני שבינה מלאכותית תהפוך לסיכון קיומי.

למכונות עם אינטליגנציה יש פוטנציאל להשתמש באינטליגנציה שלהן כדי לקבל החלטות אתיות. תחום אתיקה של מכונות מספק למכונות עקרונות ונהלים אתיים לפתרון דילמות אתיות. אתיקה של מכונות נקראת גם מוסר מכונה, אתיקה חישובית או מוסר חישובי, והיא נוסדה בסימפוזיון AAAI ב-2005.

גישות אחרות כוללות את “סוכני המוסר המלאכותיים” של וונדל וולך ואת שלושת העקרונות של סטיוארט ג’יי ראסל לפיתוח מכונות מועילות בוודאי.

 

הרגולציה של בינה מלאכותית היא פיתוח מדיניות וחוקים של המגזר הציבורי לקידום והסדרת בינה מלאכותית (AI); לכן זה קשור לרגולציה הרחבה יותר של אלגוריתמים. נוף הרגולציה והמדיניות עבור בינה מלאכותית הוא נושא מתעורר בתחומי שיפוט ברחבי העולם. בין 2016 ל-2020, יותר מ-30 מדינות אימצו אסטרטגיות ייעודיות לבינה מלאכותית. רוב המדינות החברות באיחוד האירופי פרסמו אסטרטגיות AI לאומיות, כמו קנדה, סין, הודו, יפן, מאוריציוס, הפדרציה הרוסית, ערב הסעודית, איחוד האמירויות הערביות, ארה”ב ווייטנאם. אחרים היו בתהליך של פיתוח אסטרטגיית AI משלהם, כולל בנגלדש, מלזיה ותוניסיה. השותפות גלובלית בבינה מלאכותית הושקה ביוני 2020, והצהירה על צורך בפיתוח AI בהתאם לזכויות אדם ולערכים דמוקרטיים, כדי להבטיח את אמון הציבור ואמון בטכנולוגיה.
ההסכם העולמי הראשון על האתיקה של בינה מלאכותית אומץ בספטמבר 2021 על ידי 193 המדינות החברות של אונסק”ו.
הנרי קיסינג’ר, אריק שמידט ודניאל האטנלוצ’ר פרסמו הצהרה משותפת בנובמבר 2021 הקוראת לוועדה ממשלתית להסדרת AI.

בסיפורת
המילה “רובוט” עצמה נטבעה על ידי קארל צ’אפק במחזהו RUR משנת 1921, הכותרת המייצגת “הרובוטים האוניברסליים של רוסום”.

יצורים מלאכותיים בעלי יכולת מחשבה הופיעו כמכשירי סיפור מאז העת העתיקה, והיו נושא מתמשך במדע בדיוני.

טרופ נפוץ בעבודות אלה החל עם פרנקנשטיין של מרי שלי, שבו יצירה אנושית הופכת לאיום על אדוניה. זה כולל יצירות כמו 2001 של ארתור סי קלארק וסטנלי קובריק : אודיסיאה בחלל (שניהם 1968), עם HAL 9000, המחשב הרצחני שאחראי על ספינת החלל Discovery One, וכן The Terminator (1984) ו- The Matrix (1999). לעומת זאת, הרובוטים הנאמנים הנדירים כמו גורט מהיום שבו כדור הארץ עמד במקום (1951) ובישופ מחייזרים 1986) פחות בולטים בתרבות הפופולרית.

אייזק אסימוב הציג את שלושת חוקי הרובוטיקה בספרים ובסיפורים רבים, בעיקר בסדרת “Multivac” על מחשב סופר אינטליגנטי בעל אותו שם. חוקיו של אסימוב מובאים לעתים קרובות במהלך דיוני חוץ על אתיקה של מכונות; בעוד שכמעט כל חוקרי הבינה המלאכותית מכירים את חוקי אסימוב דרך התרבות הפופולרית, הם רואים בדרך כלל את החוקים חסרי תועלת מסיבות רבות, אחת מהן היא העמימות שלהם.

טרנסהומניזם (מיזוג של בני אדם ומכונות) נחקר במנגה Ghost in the Shell ובסדרת המדע הבדיוני Dune.

כמה עבודות משתמשות בבינה מלאכותית כדי לאלץ אותנו להתמודד עם השאלה הבסיסית של מה הופך אותנו לאנושיים, ומראות לנו יצורים מלאכותיים שיש להם את היכולת להרגיש, וכך לסבול. זה מופיע ב- RUR של קארל צ’אפק, בסרטים AI Artificial Intelligence ו- Ex Machina, כמו גם ברומן Do Androids Dreams of Electric Sheep?, מאת פיליפ ק. דיק. דיק מחשיב את הרעיון שההבנה שלנו לגבי הסובייקטיביות האנושית משתנה על ידי טכנולוגיה שנוצרה עם בינה מלאכותית.

AI-complete

בתחום הבינה המלאכותית, הבעיות הקשות ביותר ידועות באופן לא פורמלי כ- AI-complete או AI-hard, מה שמרמז שהקושי של בעיות חישוביות אלו, בהנחה שהבינה היא חישובית, שווה ערך לזה של פתרון בעיית הבינה המלאכותית המרכזית – ביצוע מחשבים חכמים כמו אנשים, או בינה מלאכותית חזקה. לקרוא לבעיה AI-complete משקף גישה שהיא לא תיפתר על ידי אלגוריתם ספציפי פשוט.

ההשערה שבעיות מלאות בינה מלאכותית כוללות ראייה ממוחשבת, הבנת שפה טבעית והתמודדות עם נסיבות בלתי צפויות תוך פתרון כל בעיה בעולם האמיתי.

נכון לעכשיו, בעיות של AI לא ניתנות לפתרון באמצעות טכנולוגיית מחשב מודרנית בלבד, אלא הן ידרשו גם חישוב אנושי. מאפיין זה יכול להיות שימושי, למשל, כדי לבדוק נוכחות של בני אדם כפי שמטרת CAPTCHA לעשות, ולאבטחת מחשבים כדי לעקוף התקפות בכוח גס.

המונח נטבע על ידי פניה מונטלבו באנלוגיה ל- NP-שלם ו- NP-קשה בתורת המורכבות, המתאר באופן רשמי את המעמד המפורסם ביותר של בעיות קשות. שימושים מוקדמים במונח הם בעבודת הדוקטורט של אריק מולר משנת 1987 ובקובץ הז’רגון של אריק ריימונד משנת 1991.
בעיות של AI
ההשערה שבעיות עם AI כוללות:

סקירת עמיתים בינה מלאכותית הבנת שפה טבעית מורכבת, חשיבה אוטומטית, הוכחת משפט אוטומטי, מערכת מומחית לוגיקה פורמלית
בעיות בונגרד ראיית מחשב (ותת-בעיות כגון זיהוי אובייקטים הבנת שפה טבעית (ותת-בעיות כגון כריית טקסט , תרגום מכונה וביעור חוש-מילה )
נהיגה אוטונומית התמודדות עם נסיבות בלתי צפויות תוך פתרון של כל בעיה בעולם האמיתי, בין אם זה ניווט או תכנון או אפילו סוג ההיגיון שנעשה על ידי מערכות מומחים. תרגום מכונה

תרגום מכונה
כדי לתרגם בצורה מדויקת, מכונה חייבת להיות מסוגלת להבין את הטקסט. היא חייבת להיות מסוגלת לעקוב אחר הטיעון של המחבר, אז היא חייבת להיות בעלת יכולת מסוימת לנמק. הוא חייב להיות בעל ידע עולמי נרחב כדי לדעת על מה דנים בו – הוא חייב לפחות להכיר את כל אותן עובדות היגיון שהמתרגם האנושי הממוצע יודע. חלק מהידע הזה הוא בצורה של עובדות שניתן לייצוג במפורש, אבל חלק מהידע הוא לא מודע וקשור קשר הדוק לגוף האדם: לדוגמה, ייתכן שהמכונה תצטרך להבין איך האוקיינוס ​​גורם לאדם להרגישלתרגם במדויק מטאפורה ספציפית בטקסט. כמו כן, עליו לדגמן את מטרותיהם, כוונותיהם ומצביהם הרגשיים של המחברים כדי לשחזר אותם במדויק בשפה חדשה.
בקיצור, המכונה נדרשת למגוון רחב של מיומנויות אינטלקטואליות אנושיות, כולל שכל, ידע בריא והאינטואיציות העומדות בבסיס תנועה ומניפולציה, תפיסה ואינטליגנציה חברתית.
לפיכך, מאמינים כי תרגום מכונה מושלם בינה מלאכותית: הוא עשוי לדרוש בינה מלאכותית חזקה כפי שבני אדם יכולים לעשות זאת.

 

מערכות בינה מלאכותית נוכחיות יכולות לפתור גרסאות פשוטות מאוד ו/או מוגבלות של בעיות מלאות בינה מלאכותית, אך לעולם לא במלואן. כאשר חוקרי בינה מלאכותית מנסים “להגדיל” את המערכות שלהם כדי להתמודד עם סיטואציות מסובכות יותר בעולם האמיתי, התוכניות נוטות להיות שבירות יתר על המידה ללא ידע סביראו הבנה בסיסית של המצב: הם נכשלים כאשר מתחילות להופיע נסיבות בלתי צפויות מחוץ להקשר הבעיה המקורי שלה. כשבני אדם מתמודדים עם מצבים חדשים בעולם, הם נעזרים מאוד בעובדה שהם יודעים למה לצפות: הם יודעים מה הם כל הדברים סביבם, למה הם שם, מה הם צפויים לעשות וכן הלאה. הם יכולים לזהות מצבים חריגים ולהסתגל בהתאם. למכונה ללא בינה מלאכותית חזקה אין כישורים אחרים לחזור עליהם.

DeepMind פרסמו עבודה במאי 2022 שבה הם הכשירו דוגמנית אחת לעשות כמה דברים בו זמנית.
הדגם, ששמו גאטו, יכול “לשחק באטארי, תמונות כתוביות, צ’אט, ערימת בלוקים עם זרוע רובוט אמיתית ועוד הרבה יותר, להחליט על סמך ההקשר שלו אם להוציא טקסט, מומנטים מפרקים, לחיצות כפתורים או אסימונים אחרים”.

פורמליזציה
תיאוריית המורכבות החישובית עוסקת בקושי החישובי היחסי של פונקציות הניתנות לחישוב. בהגדרה, הוא אינו מכסה בעיות שפתרונן אינו ידוע או לא אופיינו באופן פורמלי. מכיוון שלבעיות בינה מלאכותיות רבות אין עדיין פורמליזציה, תיאוריית המורכבות הקונבנציונלית אינה מאפשרת הגדרה של שלמות בינה מלאכותית.

כדי לטפל בבעיה זו, הוצעה תיאוריית מורכבות עבור AI. הוא מבוסס על מודל חישוב שמחלק את הנטל החישובי בין מחשב לאדם: חלק אחד נפתר על ידי מחשב והחלק השני נפתר על ידי אדם. זה מפורמל על ידי מכונת טיורינג בסיוע אנושי.
הפורמליזציה מגדירה את מורכבות האלגוריתם, מורכבות הבעיה וצמצום אשר בתורו מאפשרת להגדיר מחלקות שקילות.

 

המורכבות של ביצוע אלגוריתם עם מכונת טיורינג בסיוע אדם נתונה על ידי זוג

Φ
ח,
Φ


\langle\Phi_{H},\Phi_{M}\rangle, כאשר האלמנט הראשון מייצג את המורכבות של החלק של האדם והאלמנט השני הוא המורכבות של החלק של המכונה.

תוצאות
המורכבות של פתרון הבעיות הבאות עם מכונת טיורינג בסיוע אדם היא:
זיהוי תווים אופטי עבור טקסט מודפס:


1,
ע

ל

נ

\langle O(1), poly(n) \rangle
מבחן טיורינג :
עבור א
נ
נ-שיחת משפט שבה האורקל זוכר את היסטוריית השיחה (אורקל מתמשך):


נ,

נ

\langle O(n), O(n) \rangle
עבור א
נ
נ-שיחת משפט שבה יש לשדר מחדש את היסטוריית השיחה:


נ,

נ
2

\langle O(n), O(n^2) \rangle
עבור א
נ
נ-שיחת משפט שבה יש לשדר מחדש את היסטוריית השיחה ולאדם לוקח זמן ליניארי לקרוא את השאילתה:


נ
2,

נ
2

\langle O(n^2), O(n^2) \rangle
משחק ESP :


נ,

נ

\langle O(n), O(n) \rangle
תיוג תמונה (מבוסס על פרוטוקול ארתור-מרלין:


נ,

נ

\langle O(n), O(n) \rangle
סיווג תמונה : אנושי בלבד:


נ,

נ

\langle O(n), O(n) \rangle, ועם פחות הסתמכות על האדם:


עֵץ

נ,

נ
עֵץ

נ

\langle O(\log n), O(n \log n) \rangle.

העלאת מחשבות היא תהליך ספקולטיבי של הדמיית מוח שלם, שבו נעשה שימוש בסריקת מוח כדי לחקות לחלוטין את המצב הנפשי של האדם במחשב דיגיטלי. לאחר מכן, המחשב יריץ סימולציה של עיבוד המידע של המוח, כך שהוא יגיב בעצם באותו אופן כמו המוח המקורי ויתנסה במוח מודע חי.

מחקר מיינסטרים מהותי בתחומים קשורים נערך במדעי המוח ובמדעי המחשב, כולל מיפוי וסימולציה של המוח של בעלי חיים, פיתוח של מחשבי-על מהירים יותר, מציאות מדומה, ממשקי מוח-מחשב, קונקנומיקה, ומיצוי מידע ממוחים המתפקדים בצורה דינמית. לדברי התומכים, רבים מהכלים והרעיונות הדרושים להשגת העלאת מחשבות כבר קיימים או נמצאים כעת בפיתוח פעיל; עם זאת, הם יודו שאחרים עדיין ספקולטיביים מאוד, אבל אומרים שהם עדיין בתחום האפשרויות ההנדסיות.

העלאת מחשבות עשויה להתבצע באחת משתי השיטות: העתקה והעלאה או העתקה ומחקה על ידי החלפה הדרגתית של נוירונים (שיכולה להיחשב כהעלאה הרסנית הדרגתית), עד שהמוח האורגני המקורי לא קיים יותר ו- תוכנת מחשב המחקה את המוח משתלטת על הגוף. במקרה של השיטה הראשונה, העלאת מחשבות תושג על ידי סריקה ומיפוי של התכונות הבולטות של מוח ביולוגי, ולאחר מכן על ידי אחסון והעתקה של מצב המידע הזה למערכת מחשב או מכשיר חישובי אחר. הביולוגי _ייתכן שהמוח לא ישרוד את תהליך ההעתקה או עלול להיהרס במכוון במהלכו בכמה גרסאות של העלאה. המוח המדומה יכול להיות בתוך מציאות מדומה או בעולם מדומה, נתמך על ידי מודל הדמיית גוף אנטומי תלת מימד. לחלופין, המוח המדומה יכול להתגורר במחשב בתוך (או מחובר או נשלט מרחוק) רובוט (לא בהכרח דמוי אדם או גוף ביולוגי או קיברנטי.

בקרב כמה עתידנים ובתוך החלק של התנועה הטרנס-הומניסטית, העלאת מחשבות מטופלת כאל טכנולוגיה חשובה המוצעת להארכת חיים או אלמוות (המכונה ” אלמוות דיגיטלי “). יש הסבורים שהעלאת מחשבות היא האפשרות הטובה ביותר הנוכחית של האנושות לשימור זהות המין, בניגוד לקריוניקה. מטרה נוספת של העלאת מחשבות היא לספק גיבוי קבוע ל”קובץ המוח” שלנו, כדי לאפשר מסע בחלל בין כוכבי, ואמצעי לתרבות האנושית לשרוד אסון עולמי על ידי יצירת עותק פונקציונלי של חברה אנושית במכשיר מחשוב. חיקוי מוח שלם נדון על ידי כמה עתידנים כ”נקודת קצה הגיונית”של מדעי המוח החישוביים והנוירואינפורמטיקה האקטואליים, שניהם על הדמיית מוח למטרות מחקר רפואי. זה נדון בפרסומי מחקר של בינה מלאכותית כגישה ל- AI חזק בינה כללית מלאכותית ולפחות לבינה – על חלשה. גישה נוספת היא בינה מלאכותית של זרע, שלא תתבסס על מוחות קיימים. אינטליגנציה מבוססת מחשב כמו העלאה יכולה לחשוב הרבה יותר מהר מאדם ביולוגי גם אם היא לא הייתה חכמה יותר.
חברה בקנה מידה גדול של העלאות עשויה, לפי עתידנים, להוליד ייחוד טכנולוגי, כלומר ירידה פתאומית קבועה בזמן בהתפתחות האקספוננציאלית של הטכנולוגיה.
העלאת מחשבות היא מאפיין מושגי מרכזי במספר רומני מדע בדיוני, סרטים ומשחקים.

 

סקירה כללית
מדעני מוח רבים מאמינים שהמוח האנושי הוא במידה רבה תכונה מתהווה של עיבוד המידע של הרשת הנוירונית שלו.
מדעני מוח הצהירו שתפקודים חשובים המבוצעים על ידי המוח, כגון למידה, זיכרון ותודעה, נובעות מתהליכים פיזיקליים ואלקטרוכימיים גרידא במוח ונשלטים על ידי החוקים החלים. לדוגמה, כריסטוף קוך וג’וליו טונוני כתבו ב- IEEE Spectrum :

התודעה היא חלק מהעולם הטבעי. זה תלוי, אנו מאמינים, רק במתמטיקה ולוגיקה ובחוקי הפיזיקה, הכימיה והביולוגיה הידועים בצורה לא מושלמת; זה לא נובע מאיכות קסומה או עולמית כלשהי.

מדעני מחשב ומדעני מוח בולטים חזו שמחשבים מתקדמים יהיו מסוגלים לחשוב ואף להגיע לתודעה, כולל קוך וטונוני, דאגלס הופשטטר, ג’ף הוקינס, מרווין מינסקי, רנדל א. קוין., ורודולפו לינאס.

תיאורטיקנים רבים הציגו מודלים של המוח וקבעו מגוון הערכות של כמות כוח המחשוב הדרושה להדמיות חלקיות ושלמות. באמצעות מודלים אלה, חלקם העריכו כי העלאה עשויה להתאפשר תוך עשרות שנים אם מגמות כמו חוק מור יימשכו. נכון לדצמבר 2022, סוג זה של טכנולוגיה הוא כמעט לחלוטין תיאורטי. מדענים עדיין לא גילו דרך למחשבים להרגיש רגשות אנושיים, ורבים טוענים כי העלאת התודעה אינה אפשרית.

יתרונות ויישומים תיאורטיים
“אלמוות” או גיבוי

בתיאוריה, אם ניתן לנתק את המידע והתהליכים של הנפש מהגוף הביולוגי, הם אינם קשורים עוד לגבולות האישיים ולתוחלת החיים של אותו גוף. יתר על כן, מידע בתוך מוח יכול להיות מועתק בחלקו או כולו או מועבר למצע אחר אחד או יותר (כולל אחסון דיגיטלי או מוח אחר), ובכך – מנקודת מבט מכניסטית בלבד – להפחית או לבטל את “סיכון התמותה” של מידע כזה.
הצעה כללית זו נדונה בשנת 1971 על ידי הביוגרונטולוג ג’ורג’ מ.
מרטין מאוניברסיטת וושינגטון.

חקר החלל
ניתן להשתמש ב”אסטרונאוט שהועלה” במקום באסטרונאוט “חי” בטיסת חלל אנושית, תוך הימנעות מסכנות של אפס כוח משיכה, ואקום של החלל וקרינה קוסמית לגוף האדם. היא תאפשר שימוש בחללית קטנה יותר, כמו ה- StarChip המוצעת, והיא תאפשר למעשה מרחקי נסיעה בין-כוכביים בלתי מוגבלים.
טכנולוגיות וטכניקות רלוונטיות
המיקוד של העלאת מחשבות, במקרה של העתקה והעברה, הוא על רכישת נתונים, במקום תחזוקת נתונים של המוח. קבוצה של גישות הידועות בשם loosely coupled off-loading (LCOL) עשויה לשמש בניסיון לאפיין ולהעתיק את התוכן המנטלי של המוח.
גישת LCOL עשויה לנצל דיווחים עצמיים, יומני חיים והקלטות וידאו שניתן לנתח על ידי בינה מלאכותית.
גישה מלמטה למעלה עשויה להתמקד ברזולוציה ובמורפולוגיה הספציפית של נוירונים, זמני הספייק של נוירונים, הזמנים שבהם נוירונים מייצרים תגובות פוטנציאליות לפעולה.

 

מורכבות חישובית

הערכות של כמה כוח עיבוד נדרש כדי לחקות מוח אנושי ברמות שונות, יחד עם מחשבי העל המהירים והאיטיים ביותר מ- TOP500 ומחשב אישי של $1000. שימו לב לסולם הלוגריתמי. קו המגמה (המעריכי) של מחשב העל המהיר ביותר משקף הכפלה כל 14 חודשים. קורצווייל מאמין שהעלאת מחשבות תתאפשר בסימולציה עצבית, בעוד שדו”ח Sandberg & Bostrom פחות בטוח לגבי המקום שבו מתעוררת התודעה. תומכי העלאת מחשבות מצביעים על חוק מור כדי לתמוך בתפיסה שכוח המחשוב הדרוש צפוי להיות זמין בתוך כמה עשורים. עם זאת, קשה מאוד לכמת את הדרישות החישוביות בפועל להפעלת מוח אנושי שהועלה, מה שעלול להפוך טיעון כזה למופרך.

ללא קשר לטכניקות המשמשות ללכוד או לשחזר את תפקוד המוח האנושי, סביר להניח שדרישות העיבוד יהיו עצומות, בשל המספר הגדול של נוירונים במוח האנושי יחד עם המורכבות הרבה של כל נוירון.

בשנת 2004, הנרי מרקרם, חוקר ראשי של פרויקט המוח הכחול, הצהיר כי “אין זו המטרה לבנות רשת עצבית חכמה”, המבוססת אך ורק על הדרישות החישוביות שיהיו לפרויקט כזה.

זה יהיה קשה מאוד, כי במוח, כל מולקולה היא מחשב רב עוצמה והיינו צריכים לדמות את המבנה והתפקוד של טריליונים על טריליונים של מולקולות, כמו גם את כל הכללים השולטים באינטראקציה שלהן. פשוטו כמשמעו תזדקק למחשבים שגדולים ומהירים פי טריליוני מונים מכל מה שקיים היום.

חמש שנים מאוחר יותר, לאחר סימולציה מוצלחת של חלק ממוח חולדה, מרקרם היה הרבה יותר נועז ואופטימי. בשנת 2009, כמנהל פרויקט המוח הכחול, הוא טען כי “ניתן לבנות מוח אנושי מלאכותי מפורט ופונקציונלי בתוך 10 השנים הבאות”.
פחות משנתיים לאחר מכן, הפרויקט הוכר כמנוהל לא נכון וטענותיו הופרחו, ומרכרם התבקשה לפרוש.

סריקה ומיפוי קנה מידה של אדם בודד
כאשר מדגמים ומדמים את המוח של אדם ספציפי, יש לחלץ מדגם אנטומי של המוח מפת מוח או מסד נתונים של קישוריות המציגים את הקשרים בין הנוירונים. עבור הדמיית מוח שלם, מפת רשת זו צריכה להראות את הקישוריות של מערכת העצבים כולה, כולל חוט השדרה, קולטני החישה ותאי השריר. סריקה הרסנית של דגימה קטנה של רקמה ממוח עכבר כולל פרטים סינפטיים אפשרית החל משנת 2010.

עם זאת, אם זיכרון לטווח קצר וזיכרון עבודה כוללים ירי ממושך או חוזר של נוירונים, כמו גם תהליכים דינמיים תוך-עצביים, מצב האות החשמלי והכימי של הסינפסות והנוירונים עלול להיות קשה לחלץ. המוח שהועלה עלול אז לתפוס אובדן זיכרון של האירועים והתהליכים הנפשיים מיד לפני מועד סריקת המוח.

על פי הערכות, מפת מוח מלאה תופסת פחות מ-2 x 10 16 בתים (20,000 TB) ותשמור את הכתובות של הנוירונים המחוברים, סוג הסינפסה ו”משקל” הסינפסה עבור כל אחת מ-10 15 הסינפסות של המוח. עם זאת, המורכבות הביולוגית של תפקוד המוח האמיתי (למשל המצבים האפיגנטיים של נוירונים, רכיבי חלבון עם מצבי תפקוד מרובים וכו’) עשויות למנוע חיזוי מדויק של נפח הנתונים הבינאריים הנדרשים כדי לייצג נאמנה המוח האנושי המתפקד.

 

חתך סדרתי

חתך סדרתי של מוח
שיטה אפשרית להעלאת מחשבות היא חתך סדרתי, שבו רקמת המוח ואולי חלקים אחרים של מערכת העצבים מוקפאים ולאחר מכן סורקים ומנתחים שכבה אחר שכבה, אשר עבור דגימות קפואות בקנה מידה ננו דורש קריו-אולטרה-מיקרוטום, ובכך ללכוד. מבנה הנוירונים והקשרים ביניהם. פני השטח החשופים של רקמת עצב קפואה ייסרקו ויתועדו, ולאחר מכן יוסרו שכבת פני השטח של הרקמה. למרות שזה יהיה תהליך איטי מאוד ועתיר עבודה, מחקר נמצא כעת בעיצומו של אוטומציה של איסוף ומיקרוסקופיה של חתכים סדרתיים. לאחר מכן ינותחו הסריקות, ומודל של הרשת העצבית נוצר מחדש במערכת שאליה הועלה המוח.

ישנן אי ודאות בגישה זו באמצעות טכניקות מיקרוסקופיה עדכניות. אם ניתן לשכפל את תפקוד הנוירון מהמבנה הנראה לעין בלבד, אזי הרזולוציה שמעניק מיקרוסקופ אלקטרונים סורק תספיק לטכניקה כזו. עם זאת, מכיוון שתפקוד רקמת המוח נקבע בחלקו על ידי אירועים מולקולריים (במיוחד בסינפסות, אך גם במקומות אחרים על קרום התא של הנוירון, ייתכן שהדבר לא יספיק ללכידה והדמיה של תפקודי נוירון. ייתכן שניתן יהיה להרחיב את טכניקות החתך הטורי ולתפוס את ההרכב המולקולרי הפנימי של נוירונים, באמצעות שימוש באימונוהיסטוכימיה מתוחכמתשיטות צביעה שניתן היה לקרוא אותן באמצעות מיקרוסקופ סריקת לייזר קונפוקלית.
עם זאת, מכיוון שהיצירה הפיזיולוגית של ‘נפש’ אינה ידועה כיום, ייתכן ששיטה זו לא תוכל לגשת לכל המידע הביוכימי הדרוש כדי ליצור מחדש מוח אנושי בנאמנות מספקת.

 

הדמיית מוח

העלאת מחשבות היא תהליך ספקולטיבי של הדמיית מוח שלם, שבו נעשה שימוש בסריקת מוח כדי לחקות לחלוטין את המצב הנפשי של האדם במחשב דיגיטלי. לאחר מכן, המחשב יריץ סימולציה של עיבוד המידע של המוח, כך שהוא יגיב בעצם באותו אופן כמו המוח המקורי ויתנסה במוח מודע חי.

מחקר מיינסטרים מהותי בתחומים קשורים נערך במדעי המוח ובמדעי המחשב, כולל מיפוי וסימולציה של המוח של בעלי חיים, פיתוח של מחשבי-על מהירים יותר, מציאות מדומה, ממשקי מוח-מחשב, קונקנומיקה, ומיצוי מידע ממוחים המתפקדים בצורה דינמית. לדברי התומכים, רבים מהכלים והרעיונות הדרושים להשגת העלאת מחשבות כבר קיימים או נמצאים כעת בפיתוח פעיל; עם זאת, הם יודו שאחרים עדיין ספקולטיביים מאוד, אבל אומרים שהם עדיין בתחום האפשרויות ההנדסיות.

העלאת מחשבות עשויה להתבצע באחת משתי השיטות: העתקה והעלאה או העתקה ומחקה על ידי החלפה הדרגתית של נוירונים (שיכולה להיחשב כהעלאה הרסנית הדרגתית), עד שהמוח האורגני המקורי לא קיים יותר ו- תוכנת מחשב המחקה את המוח משתלטת על הגוף. במקרה של השיטה הראשונה, העלאת מחשבות תושג על ידי סריקה ומיפוי של התכונות הבולטות של מוח ביולוגי, ולאחר מכן על ידי אחסון והעתקה של מצב המידע הזה למערכת מחשב או מכשיר חישובי אחר. הביולוגי _ייתכן שהמוח לא ישרוד את תהליך ההעתקה או עלול להיהרס במכוון במהלכו בכמה גרסאות של העלאה. המוח המדומה יכול להיות בתוך מציאות מדומה או בעולם מדומה, נתמך על ידי מודל הדמיית גוף אנטומי תלת מימד. לחלופין, המוח המדומה יכול להתגורר במחשב בתוך (או מחובר או נשלט מרחוק) רובוט (לא בהכרח דמוי אדם או גוף ביולוגי או קיברנטי.

בקרב כמה עתידנים ובתוך החלק של התנועה הטרנס-הומניסטית, העלאת מחשבות מטופלת כאל טכנולוגיה חשובה המוצעת להארכת חיים או אלמוות (המכונה ” אלמוות דיגיטלי “). יש הסבורים שהעלאת מחשבות היא האפשרות הטובה ביותר הנוכחית של האנושות לשימור זהות המין, בניגוד לקריוניקה. מטרה נוספת של העלאת מחשבות היא לספק גיבוי קבוע ל”קובץ המוח” שלנו, כדי לאפשר מסע בחלל בין כוכבי, ואמצעי לתרבות האנושית לשרוד אסון עולמי על ידי יצירת עותק פונקציונלי של חברה אנושית במכשיר מחשוב. חיקוי מוח שלם נדון על ידי כמה עתידנים כ”נקודת קצה הגיונית”של מדעי המוח החישוביים והנוירואינפורמטיקה האקטואליים, שניהם על הדמיית מוח למטרות מחקר רפואי. זה נדון בפרסומי מחקר של בינה מלאכותית כגישה ל- AI חזק בינה כללית מלאכותית ולפחות לבינה – על חלשה. גישה נוספת היא בינה מלאכותית של זרע, שלא תתבסס על מוחות קיימים. אינטליגנציה מבוססת מחשב כמו העלאה יכולה לחשוב הרבה יותר מהר מאדם ביולוגי גם אם היא לא הייתה חכמה יותר.
חברה בקנה מידה גדול של העלאות עשויה, לפי עתידנים, להוליד ייחוד טכנולוגי, כלומר ירידה פתאומית קבועה בזמן בהתפתחות האקספוננציאלית של הטכנולוגיה.
העלאת מחשבות היא מאפיין מושגי מרכזי במספר רומני מדע בדיוני, סרטים ומשחקים.

 

סקירה כללית
מדעני מוח רבים מאמינים שהמוח האנושי הוא במידה רבה תכונה מתהווה של עיבוד המידע של הרשת הנוירונית שלו.
מדעני מוח הצהירו שתפקודים חשובים המבוצעים על ידי המוח, כגון למידה, זיכרון ותודעה, נובעות מתהליכים פיזיקליים ואלקטרוכימיים גרידא במוח ונשלטים על ידי החוקים החלים. לדוגמה, כריסטוף קוך וג’וליו טונוני כתבו ב- IEEE Spectrum :

התודעה היא חלק מהעולם הטבעי. זה תלוי, אנו מאמינים, רק במתמטיקה ולוגיקה ובחוקי הפיזיקה, הכימיה והביולוגיה הידועים בצורה לא מושלמת; זה לא נובע מאיכות קסומה או עולמית כלשהי.

מדעני מחשב ומדעני מוח בולטים חזו שמחשבים מתקדמים יהיו מסוגלים לחשוב ואף להגיע לתודעה, כולל קוך וטונוני, דאגלס הופשטטר, ג’ף הוקינס, מרווין מינסקי, רנדל א. קוין., ורודולפו לינאס.

תיאורטיקנים רבים הציגו מודלים של המוח וקבעו מגוון הערכות של כמות כוח המחשוב הדרושה להדמיות חלקיות ושלמות. באמצעות מודלים אלה, חלקם העריכו כי העלאה עשויה להתאפשר תוך עשרות שנים אם מגמות כמו חוק מור יימשכו. נכון לדצמבר 2022, סוג זה של טכנולוגיה הוא כמעט לחלוטין תיאורטי. מדענים עדיין לא גילו דרך למחשבים להרגיש רגשות אנושיים, ורבים טוענים כי העלאת התודעה אינה אפשרית.

יתרונות ויישומים תיאורטיים
“אלמוות” או גיבוי

בתיאוריה, אם ניתן לנתק את המידע והתהליכים של הנפש מהגוף הביולוגי, הם אינם קשורים עוד לגבולות האישיים ולתוחלת החיים של אותו גוף. יתר על כן, מידע בתוך מוח יכול להיות מועתק בחלקו או כולו או מועבר למצע אחר אחד או יותר (כולל אחסון דיגיטלי או מוח אחר), ובכך – מנקודת מבט מכניסטית בלבד – להפחית או לבטל את “סיכון התמותה” של מידע כזה.
הצעה כללית זו נדונה בשנת 1971 על ידי הביוגרונטולוג ג’ורג’ מ.
מרטין מאוניברסיטת וושינגטון.

חקר החלל
ניתן להשתמש ב”אסטרונאוט שהועלה” במקום באסטרונאוט “חי” בטיסת חלל אנושית, תוך הימנעות מסכנות של אפס כוח משיכה, ואקום של החלל וקרינה קוסמית לגוף האדם. היא תאפשר שימוש בחללית קטנה יותר, כמו ה- StarChip המוצעת, והיא תאפשר למעשה מרחקי נסיעה בין-כוכביים בלתי מוגבלים.
טכנולוגיות וטכניקות רלוונטיות
המיקוד של העלאת מחשבות, במקרה של העתקה והעברה, הוא על רכישת נתונים, במקום תחזוקת נתונים של המוח. קבוצה של גישות הידועות בשם loosely coupled off-loading (LCOL) עשויה לשמש בניסיון לאפיין ולהעתיק את התוכן המנטלי של המוח.
גישת LCOL עשויה לנצל דיווחים עצמיים, יומני חיים והקלטות וידאו שניתן לנתח על ידי בינה מלאכותית.
גישה מלמטה למעלה עשויה להתמקד ברזולוציה ובמורפולוגיה הספציפית של נוירונים, זמני הספייק של נוירונים, הזמנים שבהם נוירונים מייצרים תגובות פוטנציאליות לפעולה.

 

מורכבות חישובית

הערכות של כמה כוח עיבוד נדרש כדי לחקות מוח אנושי ברמות שונות, יחד עם מחשבי העל המהירים והאיטיים ביותר מ- TOP500 ומחשב אישי של $1000. שימו לב לסולם הלוגריתמי. קו המגמה (המעריכי) של מחשב העל המהיר ביותר משקף הכפלה כל 14 חודשים. קורצווייל מאמין שהעלאת מחשבות תתאפשר בסימולציה עצבית, בעוד שדו”ח Sandberg & Bostrom פחות בטוח לגבי המקום שבו מתעוררת התודעה. תומכי העלאת מחשבות מצביעים על חוק מור כדי לתמוך בתפיסה שכוח המחשוב הדרוש צפוי להיות זמין בתוך כמה עשורים. עם זאת, קשה מאוד לכמת את הדרישות החישוביות בפועל להפעלת מוח אנושי שהועלה, מה שעלול להפוך טיעון כזה למופרך.

ללא קשר לטכניקות המשמשות ללכוד או לשחזר את תפקוד המוח האנושי, סביר להניח שדרישות העיבוד יהיו עצומות, בשל המספר הגדול של נוירונים במוח האנושי יחד עם המורכבות הרבה של כל נוירון.

בשנת 2004, הנרי מרקרם, חוקר ראשי של פרויקט המוח הכחול, הצהיר כי “אין זו המטרה לבנות רשת עצבית חכמה”, המבוססת אך ורק על הדרישות החישוביות שיהיו לפרויקט כזה.

זה יהיה קשה מאוד, כי במוח, כל מולקולה היא מחשב רב עוצמה והיינו צריכים לדמות את המבנה והתפקוד של טריליונים על טריליונים של מולקולות, כמו גם את כל הכללים השולטים באינטראקציה שלהן. פשוטו כמשמעו תזדקק למחשבים שגדולים ומהירים פי טריליוני מונים מכל מה שקיים היום.

חמש שנים מאוחר יותר, לאחר סימולציה מוצלחת של חלק ממוח חולדה, מרקרם היה הרבה יותר נועז ואופטימי. בשנת 2009, כמנהל פרויקט המוח הכחול, הוא טען כי “ניתן לבנות מוח אנושי מלאכותי מפורט ופונקציונלי בתוך 10 השנים הבאות”.
פחות משנתיים לאחר מכן, הפרויקט הוכר כמנוהל לא נכון וטענותיו הופרחו, ומרכרם התבקשה לפרוש.

 

סריקה ומיפוי קנה מידה של אדם בודד
כאשר מדגמים ומדמים את המוח של אדם ספציפי, יש לחלץ מדגם אנטומי של המוח מפת מוח או מסד נתונים של קישוריות המציגים את הקשרים בין הנוירונים. עבור הדמיית מוח שלם, מפת רשת זו צריכה להראות את הקישוריות של מערכת העצבים כולה, כולל חוט השדרה, קולטני החישה ותאי השריר. סריקה הרסנית של דגימה קטנה של רקמה ממוח עכבר כולל פרטים סינפטיים אפשרית החל משנת 2010.

עם זאת, אם זיכרון לטווח קצר וזיכרון עבודה כוללים ירי ממושך או חוזר של נוירונים, כמו גם תהליכים דינמיים תוך-עצביים, מצב האות החשמלי והכימי של הסינפסות והנוירונים עלול להיות קשה לחלץ. המוח שהועלה עלול אז לתפוס אובדן זיכרון של האירועים והתהליכים הנפשיים מיד לפני מועד סריקת המוח.

על פי הערכות, מפת מוח מלאה תופסת פחות מ-2 x 10 16 בתים (20,000 TB) ותשמור את הכתובות של הנוירונים המחוברים, סוג הסינפסה ו”משקל” הסינפסה עבור כל אחת מ-10 15 הסינפסות של המוח. עם זאת, המורכבות הביולוגית של תפקוד המוח האמיתי (למשל המצבים האפיגנטיים של נוירונים, רכיבי חלבון עם מצבי תפקוד מרובים וכו’) עשויות למנוע חיזוי מדויק של נפח הנתונים הבינאריים הנדרשים כדי לייצג נאמנה המוח האנושי המתפקד.

 

חתך סדרתי

חתך סדרתי של מוח
שיטה אפשרית להעלאת מחשבות היא חתך סדרתי, שבו רקמת המוח ואולי חלקים אחרים של מערכת העצבים מוקפאים ולאחר מכן סורקים ומנתחים שכבה אחר שכבה, אשר עבור דגימות קפואות בקנה מידה ננו דורש קריו-אולטרה-מיקרוטום, ובכך ללכוד. מבנה הנוירונים והקשרים ביניהם. פני השטח החשופים של רקמת עצב קפואה ייסרקו ויתועדו, ולאחר מכן יוסרו שכבת פני השטח של הרקמה. למרות שזה יהיה תהליך איטי מאוד ועתיר עבודה, מחקר נמצא כעת בעיצומו של אוטומציה של איסוף ומיקרוסקופיה של חתכים סדרתיים. לאחר מכן ינותחו הסריקות, ומודל של הרשת העצבית נוצר מחדש במערכת שאליה הועלה המוח.

ישנן אי ודאות בגישה זו באמצעות טכניקות מיקרוסקופיה עדכניות. אם ניתן לשכפל את תפקוד הנוירון מהמבנה הנראה לעין בלבד, אזי הרזולוציה שמעניק מיקרוסקופ אלקטרונים סורק תספיק לטכניקה כזו. עם זאת, מכיוון שתפקוד רקמת המוח נקבע בחלקו על ידי אירועים מולקולריים (במיוחד בסינפסות, אך גם במקומות אחרים על קרום התא של הנוירון, ייתכן שהדבר לא יספיק ללכידה והדמיה של תפקודי נוירון. ייתכן שניתן יהיה להרחיב את טכניקות החתך הטורי ולתפוס את ההרכב המולקולרי הפנימי של נוירונים, באמצעות שימוש באימונוהיסטוכימיה מתוחכמתשיטות צביעה שניתן היה לקרוא אותן באמצעות מיקרוסקופ סריקת לייזר קונפוקלית.
עם זאת, מכיוון שהיצירה הפיזיולוגית של ‘נפש’ אינה ידועה כיום, ייתכן ששיטה זו לא תוכל לגשת לכל המידע הביוכימי הדרוש כדי ליצור מחדש מוח אנושי בנאמנות מספקת.

 

הדמיית מוח

תהליך מרכישת MRI לרשת מבנית שלמה של המוח
מגנטו-אנצפלוגרפיה
ייתכן שניתן יהיה ליצור מפות תלת מימד פונקציונליות של פעילות המוח, באמצעות טכנולוגיית הדמיה מתקדמת, כגון MRI פונקציונלי (fMRI, למיפוי שינוי בזרימת הדם), מגנטואנצפלוגרפיה(MEG, למיפוי זרמים חשמליים), או שילובים של מספר שיטות, לבניית מודל תלת מימדי מפורט של המוח תוך שימוש בשיטות לא פולשניות ולא הרסניות.
כיום, fMRI משולב לעתים קרובות עם MEG ליצירת מפות פונקציונליות של קליפת המוח האנושי במהלך משימות קוגניטיביות מורכבות יותר, שכן השיטות משלימות זו את זו.
למרות שטכנולוגיית ההדמיה הנוכחית חסרה את הרזולוציה המרחבית הדרושה לאיסוף המידע הדרוש לסריקה כזו, התפתחויות חשובות לאחרונה ועתידיות צפויות לשפר משמעותית הן את הרזולוציות המרחביות והן הזמניות של הטכנולוגיות הקיימות.

הדמיית מוח

ישנה עבודה מתמשכת בתחום הדמיית המוח, כולל הדמיות חלקיות ושלמות של כמה בעלי חיים. לדוגמה, התולעת העגולה של C.
elegans, זבוב הפירות תסיסנית והעכבר, כולם הודמו בדרגות שונות.

פרויקט המוח הכחול של מכון המוח והנפש של אקול פוליטכניק פדראל דה לוזאן, שוויץ הוא ניסיון ליצור מוח סינתטי על ידי הנדסה הפוכה של מעגלים מוחיים של יונקים.

 

בעיות
סוגיות פילוסופיות
בבסיס המושג “העלאת מחשבות” (ליתר דיוק “העברת מחשבות”) עומדת הפילוסופיה הרחבה לפיה התודעה נמצאת בתוך עיבוד המידע של המוח והיא במהותה תכונה מתהווה הנובעת מדפוסי ארגון של רשתות עצביות גדולות ברמה גבוהה, וכי אותם דפוסי ארגון יכולים להתממש במכשירי עיבוד אחרים. העלאת מחשבות מסתמכת גם על הרעיון שהמוח האנושי (“העצמי” והזיכרון לטווח ארוך), בדיוק כמו מוחות לא אנושיים, מיוצג על ידי נתיבים של הרשת העצבית הנוכחית ומשקולות הסינפסות של המוח ולא על ידי דואליסטיונשמה ורוח מיסטית. ניתן להגדיר את הנפש או ה”נשמה” כמצב המידע של המוח, ואינם מהותיים רק באותו מובן כמו תוכן המידע של קובץ נתונים או מצבה של תוכנת מחשב השוכנת כעת בזיכרון חלל העבודה של מַחשֵׁב. ניתן ללכוד נתונים המציינים את מצב המידע של הרשת העצבית ולהעתיק אותם כ”קובץ מחשב” מהמוח וליישם אותם מחדש בצורה פיזית אחרת. אין בכך כדי להכחיש שהמוחות מותאמים באופן עשיר למצעים שלהם. אנלוגיה לרעיון של העלאת מחשבות היא העתקת מצב המידע הזמני (ערכי המשתנים) של תוכנת מחשב מזיכרון המחשב למחשב אחר ולהמשיך בביצועה. ייתכן שלמחשב השני יש ארכיטקטורת חומרה שונה אך מחקה את החומרה של המחשב הראשון.

לנושאים אלה יש היסטוריה ארוכה. בשנת 1775, כתב תומס ריד : “הייתי שמח לדעת… האם כאשר מוחי איבד את המבנה המקורי שלו, וכאשר כמאה שנים אחרי אותם חומרים מפוברקים בצורה כל כך מוזרה עד שהם הופכים להיות ישות אינטליגנטית, אם, אני אומר שהישות תהיה אני; או, אם, שתיים או שלוש ישויות כאלה ייווצרו מהמוח שלי; האם כולם יהיו אני, וכתוצאה מכך ישות אינטליגנטית אחת ויחידה”.

חלק ניכר מהטרנס-הומניסטים והיחידים מעניקים תקווה גדולה באמונה שהם עלולים להפוך לאלמוות, על ידי יצירת עותק פונקציונלי אחד או רבים לא-ביולוגיים של המוח שלהם, ובכך לעזוב את “הקליפה הביולוגית” שלהם. עם זאת, הפילוסופית והטרנס-הומניסטית סוזן שניידר טוענת שבמקרה הטוב, העלאה תיצור עותק של מוחו של האדם המקורי. שניידר מסכים שלתודעה יש בסיס חישובי, אבל זה לא אומר שאנחנו יכולים להעלות ולשרוד. לפי השקפותיה, “העלאה” תגרום כנראה למוות של מוחו של האדם המקורי, בעוד שרק משקיפים מבחוץ יכולים לשמור על האשליה של האדם המקורי עדיין בחיים. שכן אין זה סביר לחשוב שהתודעה של האדם תעזוב את מוחו ותיסע למקום מרוחק; חפצים פיזיים רגילים אינם מתנהגים כך. חפצים רגילים (סלעים, שולחנות וכו’) אינם נמצאים בו זמנית כאן, ובמקומות אחרים. במקרה הטוב נוצר עותק של המוח המקורי. מתאמים עצביים של תודעה, תת-ענף של מדעי המוח, קובעים שניתן להתייחס לתודעה כאל תכונה תלוית מצב של תסביך לא מוגדר כלשהו.מערכת ביולוגית מסתגלת ומקושרת מאוד.

אחרים טענו נגד מסקנות כאלה. לדוגמה, הטרנס-הומניסט הבודהיסטי ג’יימס יוז הצביע על כך ששיקול זה מגיע עד כה: אם האדם מאמין שהעצמי הוא אשליה, דאגות לגבי הישרדות אינן סיבות להימנע מהעלאה, וקית’ וויילי הציג טיעון שבו כל התוצאות הנובעות מכך. מוחות של הליך העלאה זוכים לראשוניות שווה בתביעתם לזהות המקורית, כך שהישרדותו של העצמי נקבעת רטרואקטיבית מעמדה סובייקטיבית למהדרין. חלקם גם טענו שהתודעה היא חלק ממערכת חוץ-ביולוגית שטרם התגלתה; לכן לא ניתן להבין אותה במלואה תחת המגבלות הנוכחיות של הנוירוביולוגיה. ללא העברת התודעה, העלאת תודעה אמיתית או אלמוות תמידית לא יכולה להיות מושגת באופן מעשי.

תוצאה אפשרית נוספת של העלאת מחשבות היא שההחלטה “להעלות” עשויה ליצור מניפולטור סמלים חסר תודעה במקום מוח מודע (ראה זומבי פילוסופי. האם עלינו להניח שהעלאה מודעת אם היא מציגה התנהגויות המעידות מאוד על תודעה? האם עלינו להניח שהעלאה מודעת אם היא מתעקשת מילולית שהיא מודעת? האם יכול להיות גבול עליון מוחלט במהירות העיבוד שמעליו לא ניתן לקיים את התודעה? תעלומת התודעה מונעת תשובה מוחלטת לשאלה זו. מדענים רבים, כולל קורצווייל, מאמינים מאוד שהתשובה לשאלה האם ישות נפרדת היא מודעת (עם 100% ביטחון) אינה ניתנת ביסודה, שכן התודעה היא סובייקטיבית מטבעה (ראה סוליפיזם. ללא קשר, כמה מדענים מאמינים מאוד שהתודעה היא תוצאה של תהליכים חישוביים שהם ניטרליים מצע. להיפך, מדענים רבים מאמינים שהתודעה עשויה להיות תוצאה של צורה כלשהי של חישוב קוונטי התלוי במצע (ראה מוח קוונטי.

לאור אי הוודאות אם להתייחס להעלאות כמודעות, סנדברג מציע גישה זהירה: עקרון ההנחה של הכי הרבה (PAM): הניחו שכל מערכת חיקוי יכולה להיות בעלת תכונות מנטליות זהות למערכת המקורית ולהתייחס אליה בהתאם.

 

השלכות אתיות ומשפטיות
תהליך פיתוח טכנולוגיית אמולציה מעלה סוגיות אתיות הקשורות לרווחת בעלי חיים ולתודעה מלאכותית. מדעי המוח הנדרשים לפיתוח הדמיית מוח ידרשו ניסויים בבעלי חיים, תחילה על חסרי חוליות ולאחר מכן על יונקים קטנים לפני שיעברו לבני אדם. לפעמים החיות היו צריכות רק להרדים כדי לחלץ, לחתוך ולסרוק את המוח שלהן, אבל לפעמים נדרשו אמצעים התנהגותיים ו- in vivo, שעלולים לגרום לכאב לבעלי חיים חיים.

בנוסף, חיקויי החיות המתקבלים עלולים לסבול, בהתאם לדעותיו של האדם לגבי התודעה. בנקרופט טוען לסבירות התודעה בהדמיות מוח על בסיס ניסוי המחשבה ” הדעיכה qualia ” של דיוויד צ’למרס. לאחר מכן הוא מסכם: “אם, כפי שאני טוען לעיל, סימולציה חישובית מפורטת מספיק של המוח היא פוטנציאלית מקבילה מבחינה תפעולית למוח אורגני, נובע מכך שעלינו לשקול להרחיב את ההגנות מפני סבל לסימולציות.” צ’אלמרס עצמו טען שמציאות וירטואלית כזו תהיה מציאות אמיתית. עם זאת, אם מתרחשת העלאת מחשבות וההעלאות אינן מודעות, עשויה להיות עלות הזדמנות משמעותית. בספר Superintelligence, ניק בוסטרום מביע דאגה שנוכל לבנות “דיסנילנד ללא ילדים”.

זה עשוי לסייע בהפחתת סבל הדמייה כדי לפתח מקבילות וירטואליות של הרדמה, כמו גם להשמיט עיבוד הקשור לכאב ו/או להכרה. עם זאת, ניסויים מסוימים עשויים לדרוש חיקוי בעלי חיים מתפקדים וסובלים לחלוטין. בעלי חיים עלולים גם לסבול בטעות בגלל פגמים וחוסר תובנה באילו חלקים במוחם סובלים. עולות שאלות גם לגבי המעמד המוסרי של אמולציות מוחיות חלקיות, וכן יצירת אמולציות נוירומורפיות השואבות השראה ממוחים ביולוגיים אך בנויות באופן שונה במקצת.

אמולציות מוח עלולות להימחק על ידי וירוסי מחשב או תוכנות זדוניות, ללא צורך להרוס את החומרה הבסיסית. זה עשוי להפוך את ההתנקשות לקלה יותר מאשר עבור בני אדם פיזיים.
התוקף עשוי לקחת את כוח המחשוב לשימוש עצמו.

עולות שאלות רבות בנוגע לאישיות המשפטית של אמולציות.

האם יינתנו להם זכויות של בני אדם ביולוגיים? אם אדם עושה עותק חיקוי של עצמו ואז מת, האם החיקוי יורש את רכושו ואת תפקידיו הרשמיים? האם האמולציה יכולה לבקש “לשלוף את התקע” כאשר הגרסה הביולוגית שלה הייתה חולה סופנית או בתרדמת? האם יעזור להתייחס לחיקולים כאל מתבגרים במשך כמה שנים כדי שהיוצר הביולוגי ישמור על שליטה זמנית? האם חיקויים פליליים יקבלו עונש מוות, או שיינתן להם שינוי נתונים כפוי כצורה של “שיקום”? האם להעלאה יכולות להיות זכויות נישואין וטיפול בילדים?
אם מוחות מדומים יתגשמו ואם היו מוקנות להם זכויות משלהם, ייתכן שיהיה קשה להבטיח את ההגנה על “זכויות אדם דיגיטליות”.
לדוגמה, חוקרי מדעי החברה עשויים להתפתות לחשוף בחשאי מוחות מדומים, או חברות מבודדות שלמות של מוחות מדומים, לניסויים מבוקרים שבהם עותקים רבים של אותם מוחות נחשפים (בסדרה או בו-זמנית) לתנאי בדיקה שונים.

מחקר בראשותו של מדען הקוגניציה מייקל לאקאסואו הראה שהיחס להעלאת מחשבות נחבא על ידי אמונתו של אדם בחיים שלאחר המוות; קיומה של טכנולוגיה להעלאת מחשבות עלול לאיים על תפיסות דתיות ורוחניות של אלמוות ואלוהות.

השלכות פוליטיות וכלכליות
יתכן שקודם לחיקויים מרוץ חימוש טכנולוגי המונע על ידי יתרונות של מכה ראשונה. הופעתם וקיומם עשויים להוביל לסיכון מוגבר למלחמה, כולל אי ​​שוויון, מאבקי כוח, נאמנות חזקה ונכונות למות בין חיקויים וצורות חדשות של גזענות, שנאת זרים ודעות קדומות דתיות. ​​אם אמולציות פועלות הרבה יותר מהר מבני אדם, ייתכן שלא יהיה מספיק זמן למנהיגים אנושיים לקבל החלטות נבונות או לנהל משא ומתן. ייתכן שבני אדם יגיבו באלימות נגד הכוח ההולך וגובר של חיקויים, במיוחד אם זה יפחית את השכר האנושי.
ייתכן שההדמיות לא יבטחו זו בזו, ואפילו אמצעי הגנה עם כוונות טובות עשויות להתפרש כעבירות.

הספר The Age of Em מאת רובין הנסון מעלה השערות רבות על אופי החברה של העלאות תודעות, כולל שהמוחות הנפוצים ביותר יהיו עותקים של מבוגרים בעלי אישיות המסייעת לשעות ארוכות של עבודה מקצועית פרודוקטיבית.

קווי זמן אמולציה וסיכון AI
קנת ד’ מילר, פרופסור למדעי המוח בקולומביה ומנהל שותף של המרכז למדעי המוח התיאורטיים, העלה ספקות לגבי המעשיות של העלאת מחשבות. הטענה העיקרית שלו היא שבנייה מחדש של נוירונים והקשרים ביניהם היא כשלעצמה משימה אדירה, אבל היא רחוקה מלהיות מספקת. פעולת המוח תלויה בדינמיקה של חילופי אותות חשמליים וביוכימיים בין נוירונים; לכן, לכידתם במצב “קפוא” יחיד עשויה להתברר כבלתי מספקת. בנוסף, אופי האותות הללו עשוי לדרוש מודלים עד לרמה המולקולרית ומעלה. לכן, למרות שלא דוחה את הרעיון באופן עקרוני, מילר סבור כי המורכבות של הכפילות ה”מוחלטת” של נפש אינדיבידואלית היא בלתי ניתנת למעבר למאות השנים הקרובות.

יש מעט מאוד טכנולוגיות אפשריות שבני אדם נמנעו מלפתח. מדעי המוח וטכנולוגיות חומרת המחשב שעשויות לאפשר אמולציית מוח נחשקים באופן נרחב מסיבות אחרות, ולפי ההיגיון הפיתוח שלהן יימשך גם בעתיד. ייתכן שיש לנו גם אמולציות מוחיות לתקופה קצרה אך משמעותית בדרך לבינה מלאכותית שאינה מבוססת חיקוי ברמת האדם.
בהנחה שטכנולוגיית האמולציה תגיע, נשאלת השאלה האם עלינו להאיץ או להאט את התקדמותה.

טיעונים להאצת מחקר הדמיית מוח:

אם מדעי המוח הם צוואר הבקבוק באמולציית המוח ולא בכוח המחשוב, התקדמות האמולציה עשויה להיות יותר לא יציבה ובלתי צפויה בהתבסס על מועד התרחשות תגליות מדעיות חדשות. ​​כוח מחשוב מוגבל פירושו שהאמולציות הראשונות יפעלו לאט יותר וכך יהיה קל יותר להסתגל אליה, ויהיה יותר זמן לטכנולוגיה לעבור דרך החברה. שיפורים בייצור, הדפסה תלת מימדית וננוטכנולוגיה עשויים להאיץ את ייצור החומרה, מה שעלול להגביר את “היתר המחשוב” מעודף חומרה ביחס למדעי המוח.

אם לקבוצה אחת לפיתוח בינה מלאכותית הייתה מוביל בטכנולוגיית אמולציה, היה לה זמן סובייקטיבי יותר לנצח במרוץ חימוש לבניית הבינה המלאכותית העל-אנושית הראשונה.
מכיוון שהוא יהיה פחות ממהר, יהיה לו יותר חופש לשקול סיכוני AI.

טיעונים להאטת מחקר הדמיית מוח:

השקעה גדולה יותר בהדמיית מוח ובמדעי הקוגניציה הקשורים עשויה לשפר את יכולתם של חוקרי בינה מלאכותית (AI) ליצור אלגוריתמים “נוירומורפיים” (בהשראת המוח), כגון רשתות עצביות, למידת חיזוק ותפיסה היררכית. זה יכול להאיץ סיכונים מ-AI לא מבוקרת. ​​המשתתפים בסדנת AI בשנת 2011 העריכו סבירות של 85% שבינה מלאכותית נוירומורפית תגיע לפני אמולציה מוחית. זה התבסס על הרעיון שהדמיית המוח תדרוש הבנה של כמה מרכיבי מוח, ויהיה קל יותר להתעסק עם אלה מאשר לשחזר את המוח כולו בצורתו המקורית. בהפרש מצומצם מאוד, המשתתפים באיזון נטנו לעבר הדעה שהאצת הדמיית המוח תגביר את הסיכון הצפוי לבינה מלאכותית.
המתנה עשויה לתת לחברה יותר זמן לחשוב על ההשלכות של אמולציה מוחית ולפתח מוסדות לשיפור שיתוף הפעולה.
​​מחקר האמולציה גם יאיץ את מדעי המוח בכללותו, מה שעשוי להאיץ את ההתקדמות הרפואית, שיפור קוגניטיבי, גלאי שקרים ויכולת מניפולציה פסיכולוגית.

אולי קל יותר לשלוט באמולציות מאשר בינה מלאכותית של דה נובו מכיוון

היכולות האנושיות, הנטיות ההתנהגותיות והפגיעות מובנות בצורה יסודית יותר, ולכן אמצעי הבקרה עשויים להיות אינטואיטיביים יותר וקלים יותר לתכנון. אמולציות יכולות לרשת ביתר קלות מניעים אנושיים. קשה יותר לתפעל אמולציות מאשר דה נובו AI, מכיוון שהמוח מבולגן ומסובך; זה יכול להפחית את הסיכונים של ההמראה המהירה שלהם. ​​כמו כן, אמולציות עשויות להיות מגושמות יותר ודורשות יותר חומרה מבינה מלאכותית, מה שיאט גם את מהירות המעבר.
בניגוד לבינה מלאכותית, אמולציה לא תוכל להתרחב במהירות מעבר לגודל של מוח אנושי.
לאמולציות הפועלות במהירויות דיגיטליות יהיה פחות הפרש אינטליגנציה מול בינה מלאכותית ולכן עשויות לשלוט ב-AI בקלות רבה יותר.

כקונטרה לשיקולים אלה, בוסטרום מציין כמה חסרונות:

גם אם נבין טוב יותר את ההתנהגות האנושית, האבולוציה של התנהגות אמולציה תחת שיפור עצמי עשויה להיות הרבה פחות צפויה מההתפתחות של AI בטוח דה נובו תחת שיפור עצמי. ייתכן שהאמולציות לא יורשות את כל המניעים האנושיים. אולי הם יירשו את המניעים האפלים יותר שלנו או יתנהגו בצורה חריגה בסביבה הלא מוכרת של המרחב הווירטואלי. גם אם תהיה המראה איטית לקראת אמולציות, עדיין יהיה מעבר שני ל- de novo AI בהמשך.
שני פיצוצים מודיעיניים עשויים להיות יותר סיכון מוחלט.
בגלל הקשיים המשוערים שסופר- אינטליגנציה שנוצרה באדמיית מוח תציב לבעיית הבקרה, מדען המחשבים סטיוארט ג’יי ראסל בספרו Human Compatible דוחה יצירת אחד, פשוט קורא לזה “כל כך ברור שזה רעיון רע”.

Moravec (1979) מתאר ומאשר העלאת מחשבות באמצעות מנתח מוח. Moravec (1988) משתמש בתיאור דומה ומכנה אותו “טרנמיגרציה”.

ריי קורצווייל, מנהל הנדסה בגוגל, חזה זה מכבר שאנשים יוכלו “להעלות” את כל המוח שלהם למחשבים ולהפוך ל”אלמוות דיגיטלית” עד 2045. קורצווייל טען את הטענה הזו במשך שנים רבות, למשל במהלך נאומו ב-2013 ב-2013 בשעה הקונגרס הבינלאומי Global Futures 2045 בניו יורק, שמתיימר להיות מנוי למערכת דומה של אמונות. העלאת מחשבות זכתה גם לתמיכה של מספר חוקרים במדעי המוח ובינה מלאכותית, כמו מרווין מינסקי המנוח. בשנת 1993, ג’ו סטראוט יצר אתר אינטרנט קטן בשם דף הבית של העלאת מחשבות, והחל לתמוך ברעיון בחוגי קריוניקה ובמקומות אחרים ברשת. האתר הזה לא עודכן באופן פעיל בשנים האחרונות, אבל הוא הוליד אתרים אחרים כולל MindUploading.org, המנוהל על ידי רנדל א. קוין, שגם מנחה רשימת תפוצה בנושא. תומכים אלה רואים בהעלאת מחשבות הליך רפואי שיכול בסופו של דבר להציל אינספור חיים.

טרנס-הומניסטים רבים מצפים לפיתוח ופריסה של טכנולוגיית העלאת מחשבות, כאשר טרנס-הומניסטים כמו ניק בוסטרום צופים שזה יתאפשר במאה ה-21 עקב מגמות טכנולוגיות כמו חוק מור.

Michio Kaku, בשיתוף עם Science, אירח סרט תיעודי, Sci Fi Science: Physics of the Impossible, המבוסס על ספרו Physics of the Impossible. פרק רביעי, שכותרתו “How to Teleport”, מזכיר שהעלאת מחשבות באמצעות טכניקות כמו הסתבכות קוונטית והדמיית מוח שלם באמצעות מכונת MRI מתקדמת עשויה לאפשר לאנשים לעבור מרחקים עצומים במהירות האור כמעט.

הספר Beyond Humanity: CyberEvolution and Future Minds מאת Gregory S. Paul & Earl D. Cox, עוסק בהתפתחות הסופית (ולפי המחברים, כמעט בלתי נמנעת) של מחשבים ליצורים חיים, אך עוסק גם בהעברת התודעה האנושית. ה-Wetwares של Richard Doyle : Experiments in PostVital Living עוסק בהרחבה בהעלאה מנקודת מבט של התגלמות מבוזרת, בטענה למשל שבני אדם הם כיום חלק מ”פנוטיפ החיים המלאכותיים”.
החזון של דויל הופך את הקוטביות בהעלאה, כאשר צורות חיים מלאכותיות כמו העלאות מחפשות באופן אקטיבי התגלמות ביולוגית כחלק מאסטרטגיית הרבייה שלהן.

מגנטו-אנצפלוגרפיה
ייתכן שניתן יהיה ליצור מפות תלת מימד פונקציונליות של פעילות המוח, באמצעות טכנולוגיית הדמיה מתקדמת, כגון MRI פונקציונלי (fMRI, למיפוי שינוי בזרימת הדם), מגנטואנצפלוגרפיה(MEG, למיפוי זרמים חשמליים), או שילובים של מספר שיטות, לבניית מודל תלת מימדי מפורט של המוח תוך שימוש בשיטות לא פולשניות ולא הרסניות.
כיום, fMRI משולב לעתים קרובות עם MEG ליצירת מפות פונקציונליות של קליפת המוח האנושי במהלך משימות קוגניטיביות מורכבות יותר, שכן השיטות משלימות זו את זו.
למרות שטכנולוגיית ההדמיה הנוכחית חסרה את הרזולוציה המרחבית הדרושה לאיסוף המידע הדרוש לסריקה כזו, התפתחויות חשובות לאחרונה ועתידיות צפויות לשפר משמעותית הן את הרזולוציות המרחביות והן הזמניות של הטכנולוגיות הקיימות.

הדמיית מוח

ישנה עבודה מתמשכת בתחום הדמיית המוח, כולל הדמיות חלקיות ושלמות של כמה בעלי חיים. לדוגמה, התולעת העגולה של C.
elegans, זבוב הפירות תסיסנית והעכבר, כולם הודמו בדרגות שונות.

פרויקט המוח הכחול של מכון המוח והנפש של אקול פוליטכניק פדראל דה לוזאן, שוויץ הוא ניסיון ליצור מוח סינתטי על ידי הנדסה הפוכה של מעגלים מוחיים של יונקים.

 

בעיות
סוגיות פילוסופיות
בבסיס המושג “העלאת מחשבות” (ליתר דיוק “העברת מחשבות”) עומדת הפילוסופיה הרחבה לפיה התודעה נמצאת בתוך עיבוד המידע של המוח והיא במהותה תכונה מתהווה הנובעת מדפוסי ארגון של רשתות עצביות גדולות ברמה גבוהה, וכי אותם דפוסי ארגון יכולים להתממש במכשירי עיבוד אחרים. העלאת מחשבות מסתמכת גם על הרעיון שהמוח האנושי (“העצמי” והזיכרון לטווח ארוך), בדיוק כמו מוחות לא אנושיים, מיוצג על ידי נתיבים של הרשת העצבית הנוכחית ומשקולות הסינפסות של המוח ולא על ידי דואליסטיונשמה ורוח מיסטית. ניתן להגדיר את הנפש או ה”נשמה” כמצב המידע של המוח, ואינם מהותיים רק באותו מובן כמו תוכן המידע של קובץ נתונים או מצבה של תוכנת מחשב השוכנת כעת בזיכרון חלל העבודה של מַחשֵׁב. ניתן ללכוד נתונים המציינים את מצב המידע של הרשת העצבית ולהעתיק אותם כ”קובץ מחשב” מהמוח וליישם אותם מחדש בצורה פיזית אחרת. אין בכך כדי להכחיש שהמוחות מותאמים באופן עשיר למצעים שלהם. אנלוגיה לרעיון של העלאת מחשבות היא העתקת מצב המידע הזמני (ערכי המשתנים) של תוכנת מחשב מזיכרון המחשב למחשב אחר ולהמשיך בביצועה. ייתכן שלמחשב השני יש ארכיטקטורת חומרה שונה אך מחקה את החומרה של המחשב הראשון.

לנושאים אלה יש היסטוריה ארוכה. בשנת 1775, כתב תומס ריד : “הייתי שמח לדעת… האם כאשר מוחי איבד את המבנה המקורי שלו, וכאשר כמאה שנים אחרי אותם חומרים מפוברקים בצורה כל כך מוזרה עד שהם הופכים להיות ישות אינטליגנטית, אם, אני אומר שהישות תהיה אני; או, אם, שתיים או שלוש ישויות כאלה ייווצרו מהמוח שלי; האם כולם יהיו אני, וכתוצאה מכך ישות אינטליגנטית אחת ויחידה”.

חלק ניכר מהטרנס-הומניסטים והיחידים מעניקים תקווה גדולה באמונה שהם עלולים להפוך לאלמוות, על ידי יצירת עותק פונקציונלי אחד או רבים לא-ביולוגיים של המוח שלהם, ובכך לעזוב את “הקליפה הביולוגית” שלהם. עם זאת, הפילוסופית והטרנס-הומניסטית סוזן שניידר טוענת שבמקרה הטוב, העלאה תיצור עותק של מוחו של האדם המקורי. שניידר מסכים שלתודעה יש בסיס חישובי, אבל זה לא אומר שאנחנו יכולים להעלות ולשרוד. לפי השקפותיה, “העלאה” תגרום כנראה למוות של מוחו של האדם המקורי, בעוד שרק משקיפים מבחוץ יכולים לשמור על האשליה של האדם המקורי עדיין בחיים. שכן אין זה סביר לחשוב שהתודעה של האדם תעזוב את מוחו ותיסע למקום מרוחק; חפצים פיזיים רגילים אינם מתנהגים כך. חפצים רגילים (סלעים, שולחנות וכו’) אינם נמצאים בו זמנית כאן, ובמקומות אחרים. במקרה הטוב נוצר עותק של המוח המקורי. מתאמים עצביים של תודעה, תת-ענף של מדעי המוח, קובעים שניתן להתייחס לתודעה כאל תכונה תלוית מצב של תסביך לא מוגדר כלשהו.מערכת ביולוגית מסתגלת ומקושרת מאוד.

אחרים טענו נגד מסקנות כאלה. לדוגמה, הטרנס-הומניסט הבודהיסטי ג’יימס יוז הצביע על כך ששיקול זה מגיע עד כה: אם האדם מאמין שהעצמי הוא אשליה, דאגות לגבי הישרדות אינן סיבות להימנע מהעלאה, וקית’ וויילי הציג טיעון שבו כל התוצאות הנובעות מכך. מוחות של הליך העלאה זוכים לראשוניות שווה בתביעתם לזהות המקורית, כך שהישרדותו של העצמי נקבעת רטרואקטיבית מעמדה סובייקטיבית למהדרין. חלקם גם טענו שהתודעה היא חלק ממערכת חוץ-ביולוגית שטרם התגלתה; לכן לא ניתן להבין אותה במלואה תחת המגבלות הנוכחיות של הנוירוביולוגיה. ללא העברת התודעה, העלאת תודעה אמיתית או אלמוות תמידית לא יכולה להיות מושגת באופן מעשי.

תוצאה אפשרית נוספת של העלאת מחשבות היא שההחלטה “להעלות” עשויה ליצור מניפולטור סמלים חסר תודעה במקום מוח מודע (ראה זומבי פילוסופי. האם עלינו להניח שהעלאה מודעת אם היא מציגה התנהגויות המעידות מאוד על תודעה? האם עלינו להניח שהעלאה מודעת אם היא מתעקשת מילולית שהיא מודעת? האם יכול להיות גבול עליון מוחלט במהירות העיבוד שמעליו לא ניתן לקיים את התודעה? תעלומת התודעה מונעת תשובה מוחלטת לשאלה זו. מדענים רבים, כולל קורצווייל, מאמינים מאוד שהתשובה לשאלה האם ישות נפרדת היא מודעת (עם 100% ביטחון) אינה ניתנת ביסודה, שכן התודעה היא סובייקטיבית מטבעה (ראה סוליפיזם. ללא קשר, כמה מדענים מאמינים מאוד שהתודעה היא תוצאה של תהליכים חישוביים שהם ניטרליים מצע. להיפך, מדענים רבים מאמינים שהתודעה עשויה להיות תוצאה של צורה כלשהי של חישוב קוונטי התלוי במצע (ראה מוח קוונטי.

לאור אי הוודאות אם להתייחס להעלאות כמודעות, סנדברג מציע גישה זהירה: עקרון ההנחה של הכי הרבה (PAM): הניחו שכל מערכת חיקוי יכולה להיות בעלת תכונות מנטליות זהות למערכת המקורית ולהתייחס אליה בהתאם.

 

השלכות אתיות ומשפטיות
תהליך פיתוח טכנולוגיית אמולציה מעלה סוגיות אתיות הקשורות לרווחת בעלי חיים ולתודעה מלאכותית. מדעי המוח הנדרשים לפיתוח הדמיית מוח ידרשו ניסויים בבעלי חיים, תחילה על חסרי חוליות ולאחר מכן על יונקים קטנים לפני שיעברו לבני אדם. לפעמים החיות היו צריכות רק להרדים כדי לחלץ, לחתוך ולסרוק את המוח שלהן, אבל לפעמים נדרשו אמצעים התנהגותיים ו- in vivo, שעלולים לגרום לכאב לבעלי חיים חיים.

בנוסף, חיקויי החיות המתקבלים עלולים לסבול, בהתאם לדעותיו של האדם לגבי התודעה. בנקרופט טוען לסבירות התודעה בהדמיות מוח על בסיס ניסוי המחשבה ” הדעיכה qualia ” של דיוויד צ’למרס. לאחר מכן הוא מסכם: “אם, כפי שאני טוען לעיל, סימולציה חישובית מפורטת מספיק של המוח היא פוטנציאלית מקבילה מבחינה תפעולית למוח אורגני, נובע מכך שעלינו לשקול להרחיב את ההגנות מפני סבל לסימולציות.” צ’אלמרס עצמו טען שמציאות וירטואלית כזו תהיה מציאות אמיתית. עם זאת, אם מתרחשת העלאת מחשבות וההעלאות אינן מודעות, עשויה להיות עלות הזדמנות משמעותית. בספר Superintelligence, ניק בוסטרום מביע דאגה שנוכל לבנות “דיסנילנד ללא ילדים”.

זה עשוי לסייע בהפחתת סבל הדמייה כדי לפתח מקבילות וירטואליות של הרדמה, כמו גם להשמיט עיבוד הקשור לכאב ו/או להכרה. עם זאת, ניסויים מסוימים עשויים לדרוש חיקוי בעלי חיים מתפקדים וסובלים לחלוטין. בעלי חיים עלולים גם לסבול בטעות בגלל פגמים וחוסר תובנה באילו חלקים במוחם סובלים. עולות שאלות גם לגבי המעמד המוסרי של אמולציות מוחיות חלקיות, וכן יצירת אמולציות נוירומורפיות השואבות השראה ממוחים ביולוגיים אך בנויות באופן שונה במקצת.

אמולציות מוח עלולות להימחק על ידי וירוסי מחשב או תוכנות זדוניות, ללא צורך להרוס את החומרה הבסיסית. זה עשוי להפוך את ההתנקשות לקלה יותר מאשר עבור בני אדם פיזיים.
התוקף עשוי לקחת את כוח המחשוב לשימוש עצמו.

עולות שאלות רבות בנוגע לאישיות המשפטית של אמולציות.

האם יינתנו להם זכויות של בני אדם ביולוגיים? אם אדם עושה עותק חיקוי של עצמו ואז מת, האם החיקוי יורש את רכושו ואת תפקידיו הרשמיים? האם האמולציה יכולה לבקש “לשלוף את התקע” כאשר הגרסה הביולוגית שלה הייתה חולה סופנית או בתרדמת? האם יעזור להתייחס לחיקולים כאל מתבגרים במשך כמה שנים כדי שהיוצר הביולוגי ישמור על שליטה זמנית? האם חיקויים פליליים יקבלו עונש מוות, או שיינתן להם שינוי נתונים כפוי כצורה של “שיקום”? האם להעלאה יכולות להיות זכויות נישואין וטיפול בילדים?
אם מוחות מדומים יתגשמו ואם היו מוקנות להם זכויות משלהם, ייתכן שיהיה קשה להבטיח את ההגנה על “זכויות אדם דיגיטליות”.
לדוגמה, חוקרי מדעי החברה עשויים להתפתות לחשוף בחשאי מוחות מדומים, או חברות מבודדות שלמות של מוחות מדומים, לניסויים מבוקרים שבהם עותקים רבים של אותם מוחות נחשפים (בסדרה או בו-זמנית) לתנאי בדיקה שונים.

מחקר בראשותו של מדען הקוגניציה מייקל לאקאסואו הראה שהיחס להעלאת מחשבות נחבא על ידי אמונתו של אדם בחיים שלאחר המוות; קיומה של טכנולוגיה להעלאת מחשבות עלול לאיים על תפיסות דתיות ורוחניות של אלמוות ואלוהות.

השלכות פוליטיות וכלכליות
יתכן שקודם לחיקויים מרוץ חימוש טכנולוגי המונע על ידי יתרונות של מכה ראשונה. הופעתם וקיומם עשויים להוביל לסיכון מוגבר למלחמה, כולל אי ​​שוויון, מאבקי כוח, נאמנות חזקה ונכונות למות בין חיקויים וצורות חדשות של גזענות, שנאת זרים ודעות קדומות דתיות. ​​אם אמולציות פועלות הרבה יותר מהר מבני אדם, ייתכן שלא יהיה מספיק זמן למנהיגים אנושיים לקבל החלטות נבונות או לנהל משא ומתן. ייתכן שבני אדם יגיבו באלימות נגד הכוח ההולך וגובר של חיקויים, במיוחד אם זה יפחית את השכר האנושי.
ייתכן שההדמיות לא יבטחו זו בזו, ואפילו אמצעי הגנה עם כוונות טובות עשויות להתפרש כעבירות.

הספר The Age of Em מאת רובין הנסון מעלה השערות רבות על אופי החברה של העלאות תודעות, כולל שהמוחות הנפוצים ביותר יהיו עותקים של מבוגרים בעלי אישיות המסייעת לשעות ארוכות של עבודה מקצועית פרודוקטיבית.

קווי זמן אמולציה וסיכון AI
קנת ד’ מילר, פרופסור למדעי המוח בקולומביה ומנהל שותף של המרכז למדעי המוח התיאורטיים, העלה ספקות לגבי המעשיות של העלאת מחשבות. הטענה העיקרית שלו היא שבנייה מחדש של נוירונים והקשרים ביניהם היא כשלעצמה משימה אדירה, אבל היא רחוקה מלהיות מספקת. פעולת המוח תלויה בדינמיקה של חילופי אותות חשמליים וביוכימיים בין נוירונים; לכן, לכידתם במצב “קפוא” יחיד עשויה להתברר כבלתי מספקת. בנוסף, אופי האותות הללו עשוי לדרוש מודלים עד לרמה המולקולרית ומעלה. לכן, למרות שלא דוחה את הרעיון באופן עקרוני, מילר סבור כי המורכבות של הכפילות ה”מוחלטת” של נפש אינדיבידואלית היא בלתי ניתנת למעבר למאות השנים הקרובות.

יש מעט מאוד טכנולוגיות אפשריות שבני אדם נמנעו מלפתח. מדעי המוח וטכנולוגיות חומרת המחשב שעשויות לאפשר אמולציית מוח נחשקים באופן נרחב מסיבות אחרות, ולפי ההיגיון הפיתוח שלהן יימשך גם בעתיד. ייתכן שיש לנו גם אמולציות מוחיות לתקופה קצרה אך משמעותית בדרך לבינה מלאכותית שאינה מבוססת חיקוי ברמת האדם.
בהנחה שטכנולוגיית האמולציה תגיע, נשאלת השאלה האם עלינו להאיץ או להאט את התקדמותה.

טיעונים להאצת מחקר הדמיית מוח:

אם מדעי המוח הם צוואר הבקבוק באמולציית המוח ולא בכוח המחשוב, התקדמות האמולציה עשויה להיות יותר לא יציבה ובלתי צפויה בהתבסס על מועד התרחשות תגליות מדעיות חדשות. ​​כוח מחשוב מוגבל פירושו שהאמולציות הראשונות יפעלו לאט יותר וכך יהיה קל יותר להסתגל אליה, ויהיה יותר זמן לטכנולוגיה לעבור דרך החברה. שיפורים בייצור, הדפסה תלת מימדית וננוטכנולוגיה עשויים להאיץ את ייצור החומרה, מה שעלול להגביר את “היתר המחשוב” מעודף חומרה ביחס למדעי המוח.

אם לקבוצה אחת לפיתוח בינה מלאכותית הייתה מוביל בטכנולוגיית אמולציה, היה לה זמן סובייקטיבי יותר לנצח במרוץ חימוש לבניית הבינה המלאכותית העל-אנושית הראשונה.
מכיוון שהוא יהיה פחות ממהר, יהיה לו יותר חופש לשקול סיכוני AI.

טיעונים להאטת מחקר הדמיית מוח:

השקעה גדולה יותר בהדמיית מוח ובמדעי הקוגניציה הקשורים עשויה לשפר את יכולתם של חוקרי בינה מלאכותית (AI) ליצור אלגוריתמים “נוירומורפיים” (בהשראת המוח), כגון רשתות עצביות, למידת חיזוק ותפיסה היררכית. זה יכול להאיץ סיכונים מ-AI לא מבוקרת. ​​המשתתפים בסדנת AI בשנת 2011 העריכו סבירות של 85% שבינה מלאכותית נוירומורפית תגיע לפני אמולציה מוחית. זה התבסס על הרעיון שהדמיית המוח תדרוש הבנה של כמה מרכיבי מוח, ויהיה קל יותר להתעסק עם אלה מאשר לשחזר את המוח כולו בצורתו המקורית. בהפרש מצומצם מאוד, המשתתפים באיזון נטנו לעבר הדעה שהאצת הדמיית המוח תגביר את הסיכון הצפוי לבינה מלאכותית.
המתנה עשויה לתת לחברה יותר זמן לחשוב על ההשלכות של אמולציה מוחית ולפתח מוסדות לשיפור שיתוף הפעולה.
​​מחקר האמולציה גם יאיץ את מדעי המוח בכללותו, מה שעשוי להאיץ את ההתקדמות הרפואית, שיפור קוגניטיבי, גלאי שקרים ויכולת מניפולציה פסיכולוגית.

אולי קל יותר לשלוט באמולציות מאשר בינה מלאכותית של דה נובו מכיוון

היכולות האנושיות, הנטיות ההתנהגותיות והפגיעות מובנות בצורה יסודית יותר, ולכן אמצעי הבקרה עשויים להיות אינטואיטיביים יותר וקלים יותר לתכנון. אמולציות יכולות לרשת ביתר קלות מניעים אנושיים. קשה יותר לתפעל אמולציות מאשר דה נובו AI, מכיוון שהמוח מבולגן ומסובך; זה יכול להפחית את הסיכונים של ההמראה המהירה שלהם. ​​כמו כן, אמולציות עשויות להיות מגושמות יותר ודורשות יותר חומרה מבינה מלאכותית, מה שיאט גם את מהירות המעבר.
בניגוד לבינה מלאכותית, אמולציה לא תוכל להתרחב במהירות מעבר לגודל של מוח אנושי.
לאמולציות הפועלות במהירויות דיגיטליות יהיה פחות הפרש אינטליגנציה מול בינה מלאכותית ולכן עשויות לשלוט ב-AI בקלות רבה יותר.

כקונטרה לשיקולים אלה, בוסטרום מציין כמה חסרונות:

גם אם נבין טוב יותר את ההתנהגות האנושית, האבולוציה של התנהגות אמולציה תחת שיפור עצמי עשויה להיות הרבה פחות צפויה מההתפתחות של AI בטוח דה נובו תחת שיפור עצמי. ייתכן שהאמולציות לא יורשות את כל המניעים האנושיים. אולי הם יירשו את המניעים האפלים יותר שלנו או יתנהגו בצורה חריגה בסביבה הלא מוכרת של המרחב הווירטואלי. גם אם תהיה המראה איטית לקראת אמולציות, עדיין יהיה מעבר שני ל- de novo AI בהמשך.
שני פיצוצים מודיעיניים עשויים להיות יותר סיכון מוחלט.
בגלל הקשיים המשוערים שסופר- אינטליגנציה שנוצרה באדמיית מוח תציב לבעיית הבקרה, מדען המחשבים סטיוארט ג’יי ראסל בספרו Human Compatible דוחה יצירת אחד, פשוט קורא לזה “כל כך ברור שזה רעיון רע”.

 

ריי קורצווייל, מנהל הנדסה בגוגל, חזה זה מכבר שאנשים יוכלו “להעלות” את כל המוח שלהם למחשבים ולהפוך ל”אלמוות דיגיטלית” עד 2045. קורצווייל טען את הטענה הזו במשך שנים רבות, למשל במהלך נאומו ב-2013 ב-2013 בשעה הקונגרס הבינלאומי Global Futures 2045 בניו יורק, שמתיימר להיות מנוי למערכת דומה של אמונות. העלאת מחשבות זכתה גם לתמיכה של מספר חוקרים במדעי המוח ובינה מלאכותית, כמו מרווין מינסקי המנוח. בשנת 1993, ג’ו סטראוט יצר אתר אינטרנט קטן בשם דף הבית של העלאת מחשבות, והחל לתמוך ברעיון בחוגי קריוניקה ובמקומות אחרים ברשת. האתר הזה לא עודכן באופן פעיל בשנים האחרונות, אבל הוא הוליד אתרים אחרים כולל MindUploading.org, המנוהל על ידי רנדל א. קוין, שגם מנחה רשימת תפוצה בנושא. תומכים אלה רואים בהעלאת מחשבות הליך רפואי שיכול בסופו של דבר להציל אינספור חיים.

טרנס-הומניסטים רבים מצפים לפיתוח ופריסה של טכנולוגיית העלאת מחשבות, כאשר טרנס-הומניסטים כמו ניק בוסטרום צופים שזה יתאפשר במאה ה-21 עקב מגמות טכנולוגיות כמו חוק מור.

Michio Kaku, בשיתוף עם Science, אירח סרט תיעודי, Sci Fi Science: Physics of the Impossible, המבוסס על ספרו Physics of the Impossible. פרק רביעי, שכותרתו “How to Teleport”, מזכיר שהעלאת מחשבות באמצעות טכניקות כמו הסתבכות קוונטית והדמיית מוח שלם באמצעות מכונת MRI מתקדמת עשויה לאפשר לאנשים לעבור מרחקים עצומים במהירות האור כמעט.

הספר Beyond Humanity: CyberEvolution and Future Minds מאת Gregory S. Paul & Earl D. Cox, עוסק בהתפתחות הסופית (ולפי המחברים, כמעט בלתי נמנעת) של מחשבים ליצורים חיים, אך עוסק גם בהעברת התודעה האנושית. ה-Wetwares של Richard Doyle : Experiments in PostVital Living עוסק בהרחבה בהעלאה מנקודת מבט של התגלמות מבוזרת, בטענה למשל שבני אדם הם כיום חלק מ”פנוטיפ החיים המלאכותיים”.
החזון של דויל הופך את הקוטביות בהעלאה, כאשר צורות חיים מלאכותיות כמו העלאות מחפשות באופן אקטיבי התגלמות ביולוגית כחלק מאסטרטגיית הרבייה שלהן.

תודעה מלאכותית AC, המכונה גם תודעת מכונה MC או תודעה סינתטית Gamz 2008 ; Reggia 2013, היא תחום הקשור לבינה מלאכותית ורובוטיקה קוגניטיבית. מטרת התיאוריה של תודעה מלאכותית היא “להגדיר את מה שהיה צריך להיות מסונתז אילו תודעה הייתה נמצאת בחפץ מהונדס” Aleksander 1995.

מדעי המוח משערים שהתודעה נוצרת על ידי פעולות הדדיות של חלקים שונים במוח, הנקראים המתאם העצבי של התודעה או NCC, אם כי יש אתגרים לפרספקטיבה זו. תומכי AC מאמינים שניתן לבנות מערכות (למשל, מערכות מחשב שיכולות לחקות את פעולת ה-NCC הזו.

מושגי תודעה מלאכותית נדונים גם בפילוסופיה של בינה מלאכותית באמצעות שאלות על נפש, תודעה ומצבים נפשיים.

דעות פילוסופיות
מכיוון שקיימים סוגים רבים של תודעה משוערים, ישנם יישומים פוטנציאליים רבים של תודעה מלאכותית. בספרות הפילוסופית, אולי הטקסונומיה הנפוצה ביותר של התודעה היא בווריאציות “גישה” ו”פנומנליות”.
תודעת הגישה נוגעת לאותם היבטים של חוויה שניתן לתפוס, בעוד תודעה פנומנלית נוגעת לאותם היבטים של חוויה שלכאורה לא ניתן לתפוס, במקום זאת מאופיינת בצורה איכותית במונחים של “תחושה גולמית”, “איך זה” או qualia Block 1997.
.

 

ויכוח על סבירות
תאורטיקנים מסוג זהות וספקנים אחרים מחזיקים בדעה שהתודעה יכולה להתממש רק במערכות פיזיקליות מסוימות, משום שלתודעה יש תכונות התלויות בהכרח בחוקה הפיזיקלית Block 1978 ; Bickle 2003.

במאמרו “תודעה מלאכותית: אוטופיה או אפשרות אמיתית”, אומר ג’ורג’יו בוטאצו כי התנגדות נפוצה לתודעה מלאכותית היא ש”בעבודה במצב אוטומטי לחלוטין, הם אינם יכולים להפגין יצירתיות, חוסר תכנות (שמשמעותו אינה יכולה להיות יותר) מתוכנת מחדש, מחשיבה מחדש), רגשות או רצון חופשי.
מחשב, כמו מכונת כביסה, הוא עבד המופעל על ידי מרכיביו.

עבור תיאורטיקנים אחרים (למשל, פונקציונליסטים, המגדירים מצבים נפשיים במונחים של תפקידים סיבתיים, כל מערכת שיכולה ליצור את אותו דפוס של תפקידים סיבתיים, ללא קשר למבנה הפיזי, תיצור את אותם מצבים נפשיים, כולל תודעה (Putnam 1967.

טיעון קרן חישובית
אחד הטיעונים המפורשים ביותר לסבירות של AC מגיע מדוד צ’למרס. ההצעה שלו, שנמצאה במאמרו Chalmers 2011, היא בערך שסוגי החישובים הנכונים מספיקים לבעלות מוח מודע. במתווה הוא מגן על טענתו כך: מחשבים מבצעים חישובים. חישובים יכולים לתפוס את הארגון הסיבתי המופשט של מערכות אחרות.

החלק השנוי ביותר במחלוקת בהצעתו של צ’למרס הוא שתכונות נפשיות הן “בלתי משתנה ארגונית”. תכונות נפשיות הן משני סוגים, פסיכולוגית ופנומנולוגית. תכונות פסיכולוגיות, כגון אמונה ותפיסה, הן אלו ש”מאפיינות בתפקידן הסיבתי”. הוא מפרסם את עבודתם של ארמסטרונג 1968 ולואיס 1972 בטענה ש”עם אותה טופולוגיה סיבתית… יחלקו את התכונות הפסיכולוגיות שלהן”.

תכונות פנומנולוגיות אינן ניתנות להגדרה לכאורה במונחים של תפקידיהן הסיבתיים. קביעה שתכונות פנומנולוגיות ניתנות לאינדיבידואציה לפי תפקיד סיבתי, מחייבת אפוא ויכוח. צ’למרס מספק את טיעון ה-Dancing Qualia שלו למטרה זו.

צ’למרס מתחיל בהנחה שסוכנים בעלי ארגונים סיבתיים זהים יכולים לחוות חוויות שונות. לאחר מכן הוא מבקש מאיתנו לחשוב על שינוי של גורם אחד לשני על ידי החלפת חלקים (חלקים עצביים מוחלפים בסיליקון, נניח) תוך שמירה על הארגון הסיבתי שלו.
חוץ מהשערה, חוויית הסוכן תחת טרנספורמציה תשתנה (ככל שהחלקים יוחלפו), אך לא יהיה שינוי בטופולוגיה הסיבתית ולכן אין אמצעי לפיו הסוכן יוכל “להבחין” בשינוי בחוויה.

מבקרי AC מתנגדים לכך שצ’למרס מעלה את השאלה בהנחה שכל התכונות המנטליות והקשרים החיצוניים נלכדים במידה מספקת על ידי ארגון סיבתי מופשט.

 

אתיקה

אם היה חושד שמכונה מסוימת הייתה מודעת, זכויותיה יהיו נושא אתי שצריך להעריך (למשל אילו זכויות יהיו לה על פי חוק). לדוגמה, מחשב מודע שהיה בבעלות ושימש ככלי או מחשב מרכזי של בניין של מכונה גדולה יותר הוא אי בהירות מסוימת. האם צריך לחוקק חוקים למקרה כזה? התודעה תדרוש גם הגדרה משפטית במקרה הספציפי הזה.
מכיוון שתודעה מלאכותית היא עדיין נושא תיאורטי במידה רבה, אתיקה כזו לא נדונה או פותחה במידה רבה, אם כי לעתים קרובות היא הייתה נושא בסיפורת (ראה להלן).

בשנת 2021, הפילוסוף הגרמני תומס מצינגר דרש מורטוריום עולמי על פנומנולוגיה סינתטית עד 2050, מטעמים אתיים.

הכללים של תחרות פרס לובנר לשנת 2003 התייחסו במפורש לשאלת זכויות הרובוטים:

אם, בשנה נתונה, ערך זמין לציבור בקוד פתוח שהוזן על ידי אוניברסיטת סארי או מרכז קיימברידג’ זוכה במדליית הכסף או במדליית הזהב, אזי המדליה ופרס המזומנים יוענקו לגוף האחראי על פיתוח של אותו ערך.
אם לא ניתן לזהות גוף כזה, או אם יש מחלוקת בין שני תובעים או יותר, המדליה ופרס המזומן יוחזקו בנאמנות עד למועד שבו הערך עשוי להחזיק באופן חוקי, בין אם בארצות הברית של אמריקה או ב- מקום התחרות, פרס המזומן ומדליית זהב בפני עצמה.

הצעות מחקר ויישום
היבטים של תודעה
ישנם היבטים שונים של התודעה הנחשבים בדרך כלל הכרחיים כדי שמכונה תהיה מודעת באופן מלאכותי. מגוון פונקציות שבהן התודעה ממלאת תפקיד הוצעו על ידי Bernard Baars Baars 1988 ואחרים. תפקידי התודעה שהציע ברנרד בארס הם הגדרה והגדרת הקשר, התאמה ולמידה, עריכה, סימון וניפוי באגים, גיוס ובקרה, תעדוף ובקרת גישה, קבלת החלטות או פונקציה ביצועית, פונקציה של יצירת אנלוגיה, מטה-קוגניטיבית ועצמית. פונקציית ניטור, ופונקציית תכנות אוטומטית ותחזוקה עצמית. איגור אלכסנדר הציע 12 עקרונות לתודעה מלאכותית אלכסנדר 1995) ואלה הם: המוח הוא מכונת מצב, חלוקת נוירונים פנימית, מצבים מודעים ולא מודעים, למידה תפיסתית וזיכרון, חיזוי, מודעות העצמי, ייצוג משמעות, לימוד התבטאויות, לימוד שפה, רצון, אינסטינקט ורגש.
מטרת AC היא להגדיר האם וכיצד ניתן לסנתז היבטים אלו ואחרים של התודעה בחפץ מהונדס כגון מחשב דיגיטלי.
רשימה זו אינה ממצה; יש הרבה אחרים שלא מכוסים.

 

מודעות
מודעות יכולה להיות היבט אחד נדרש, אבל ישנן בעיות רבות עם ההגדרה המדויקת של מודעות. תוצאות הניסויים של סריקה עצבית בקופים מצביעות על כך שתהליך, לא רק מצב או עצם, מפעיל נוירונים. המודעות כוללת יצירה ובדיקה של מודלים חלופיים של כל תהליך המבוססים על המידע המתקבל דרך החושים או המדומיין, והיא שימושית גם לביצוע תחזיות. דוגמנות כזו דורשת גמישות רבה. יצירת מודל כזה כוללת מודלים של העולם הפיזי, מודלים של מצבים ותהליכים פנימיים של האדם עצמו, ומידול של ישויות מודעות אחרות.

ישנם לפחות שלושה סוגים של מודעות: מודעות סוכנות, מודעות מטרה ומודעות סנסו-מוטורית, שעשויה להיות גם מודעת או לא. לדוגמה, במודעות לסוכנות, ייתכן שאתה מודע לכך שביצעת פעולה מסוימת אתמול, אך אינך מודע לה כעת. במודעות למטרה, ייתכן שאתה מודע לכך שאתה חייב לחפש חפץ אבוד, אך אינך מודע לכך כעת. במודעות סנסו-מוטורית, ייתכן שאתה מודע לכך שהיד שלך מונחת על חפץ, אך אינך מודע לכך כעת.

מכיוון שאובייקטים של מודעות הם לרוב מודעים, ההבחנה בין מודעות לתודעה מטושטשת לעתים קרובות או שהם משמשים כמילים נרדפות.

זיכרון
אירועים מודעים מקיימים אינטראקציה עם מערכות זיכרון בלמידה, חזרות ושליפה. מודל IDA מבהיר את תפקידה של התודעה בעדכון הזיכרון התפיסתי, הזיכרון האפיזודי החולף והזיכרון הפרוצדורלי.
זיכרונות אפיזודיים והצהרתיים חולפים הפיצו ייצוגים ב-IDA, יש עדויות שזה כך גם במערכת העצבים.
ב-IDA, שני הזכרונות הללו מיושמים באופן חישובי באמצעות גרסה שונה של ארכיטקטורת הזיכרון המבוזר Sparse של Kanerva.

למידה
למידה נחשבת גם הכרחית עבור AC.
מאת ברנרד בארס, יש צורך בחוויה מודעת כדי לייצג ולהסתגל לאירועים חדשניים ומשמעותיים Baars 1988.
מאת אקסל קלירמנס ולואיס חימנס, למידה מוגדרת כ”קבוצה של תהליכי הסתגלות מתקדמים מבחינה פילוגנטית התלויים באופן קריטי ברגישות מתפתחת לחוויה סובייקטיבית כדי לאפשר לסוכנים להרשות לעצמם שליטה גמישה על פעולותיהם בסביבות מורכבות ובלתי צפויות ” Cleeremans 2001.

 

ציפייה
היכולת לחזות (או לצפות מראש אירועים צפויים נחשבת חשובה עבור AC על ידי איגור אלכסנדר. עקרון הטיוטות המתעוררות המתעוררות שהוצע על ידי דניאל דנט ב- Consciousness Explained עשוי להיות שימושי לחיזוי: הוא כולל הערכה ובחירה של ה”טיוטה” המתאימה ביותר שתתאים לסביבה הנוכחית. ציפייה כוללת חיזוי של השלכות של פעולות מוצעות של האדם עצמו וחיזוי של השלכות של פעולות סבירות על ידי ישויות אחרות.

היחסים בין מדינות העולם האמיתי משתקפות במבנה המצב של אורגניזם מודע המאפשר לאורגניזם לחזות אירועים. מכונה בעלת הכרה מלאכותית צריכה להיות מסוגלת לצפות אירועים כראוי על מנת להיות מוכנה להגיב אליהם כשהם מתרחשים או לנקוט בפעולה מונעת כדי למנוע אירועים צפויים. המשמעות כאן היא שהמכונה זקוקה לרכיבים גמישים בזמן אמת הבונים מודלים מרחביים, דינמיים, סטטיסטיים, פונקציונליים וסיבה-תוצאה של העולם האמיתי והעולמות החזויים, מה שמאפשר להוכיח שהיא בעלת תודעה מלאכותית בהווה ועתיד ולא רק בעבר. על מנת לעשות זאת, מכונה מודעת צריכה לעשות תחזיות קוהרנטיות ותוכניות מגירה, לא רק בעולמות עם כללים קבועים כמו לוח שחמט, אלא גם עבור סביבות חדשות שעשויות להשתנות, שיבוצעו רק כאשר מתאים כדי לדמות ולשלוט במציאות האמיתית.
עוֹלָם.

 

חוויה סובייקטיבית
חוויות סובייקטיביות או qualia נחשבות באופן נרחב לבעיה הקשה של התודעה.
אכן, הוא נחשב כמציב אתגר לפיזיקליזם, שלא לדבר על חישוביות.
מצד שני, יש בעיות בתחומי מדע אחרים שמגבילים את מה שאנו יכולים לראות, כמו עקרון אי הוודאות בפיזיקה, שלא הפכו את המחקר בתחומי המדע הללו לבלתי אפשריים.

 

תפקיד של ארכיטקטורות קוגניטיביות

המונח “ארכיטקטורה קוגניטיבית” עשוי להתייחס לתיאוריה על מבנה המוח האנושי, או כל חלק או פונקציה שלו, כולל התודעה. בהקשר אחר, ארכיטקטורה קוגניטיבית מיישמת את התיאוריה במחשבים. דוגמה לכך היא QuBIC: ארכיטקטורה קוגניטיבית בהשראה קוונטית ו-ביולוגית לתודעת מכונה. אחת המטרות העיקריות של ארכיטקטורה קוגניטיבית היא לסכם את התוצאות השונות של הפסיכולוגיה הקוגניטיבית במודל ממוחשב מקיף.
עם זאת, התוצאות צריכות להיות בצורה רשמית כדי שיוכלו להיות הבסיס של תוכנית מחשב.
כמו כן, תפקידה של ארכיטקטורה קוגניטיבית הוא ל-AI לבנות בבירור, לבנות וליישם את תהליך החשיבה שלו.

 

הצעות סמליות או היברידיות
סוכן ההפצה החכמה של פרנקלין
Stan Franklin (1995, 2003) מגדיר סוכן אוטונומי כבעל תודעה תפקודית כאשר הוא מסוגל לכמה מתפקידי התודעה כפי שזוהו על ידי תיאוריית מרחב העבודה העולמי של ברנרד בארס (Baars 1988, 1997. ה-IDA שלו (Intelligent Distribution Agent) הוא יישום תוכנה של GWT, מה שהופך אותו למודע תפקודית בהגדרה. המשימה של IDA היא לנהל משא ומתן על משימות חדשות עבור מלחים בצי האמריקנילאחר שהם מסיימים סיור בתפקיד, על ידי התאמה של כישוריו והעדפותיו של כל אדם לצרכי חיל הים. IDA מקיים אינטראקציה עם מסדי נתונים של חיל הים ומתקשר עם המלחים באמצעות דואר אלקטרוני בשפה טבעית תוך ציות למערכת גדולה של מדיניות חיל הים. המודל החישובי של IDA פותח במהלך השנים 1996–2001 בקבוצת מחקר התוכנה “המודע” של סטן פרנקלין באוניברסיטת ממפיס. הוא “מורכב מכרבע מיליון שורות של קוד ג’אווה, ומכלה כמעט לחלוטין את המשאבים של תחנת עבודה מתקדמת משנת 2001”. זה מסתמך במידה רבה על קודלטים, שהם “מיני-סוכנים למטרות מיוחדות, עצמאיות יחסית, המיושמות בדרך כלל כחתיכת קוד קטנה הפועלת כחוט נפרד.” בארכיטקטורה מלמעלה למטה של ​​IDA, פונקציות קוגניטיביות ברמה גבוהה מעוצבות במפורש (ראה Franklin 1995 ו- Franklin 2003 לפרטים). בעוד ש-IDA מודעת תפקודית בהגדרה, פרנקלין “אינו מייחס תודעה פנומנלית לסוכן התוכנה ה’מודע’ שלו, IDA, למרות התנהגויותיה הרבות דמויות האדם.
זאת למרות שצפה במספר פרטים של הצי האמריקני מהנהנים שוב ושוב בראשם באומרו.
‘כן, ככה אני עושה את זה’ תוך כדי צפייה בפעולות הפנימיות והחיצוניות של IDA בזמן שהיא מבצעת את משימתה”.

 

הארכיטקטורה הקוגניטיבית של רון סאן CLARION
CLARION מציבה ייצוג דו-מפלסי המסביר את ההבחנה בין תהליכים נפשיים מודעים ללא-מודעים.

CLARION הצליחה לתת מענה למגוון נתונים פסיכולוגיים. מספר משימות למידת מיומנויות ידועות הודמו באמצעות CLARION המשתרעות על הספקטרום החל ממיומנויות תגובתיות פשוטות ועד מיומנויות קוגניטיביות מורכבות. המשימות כוללות משימות זמן תגובה סדרתי (SRT), משימות לימוד דקדוק מלאכותי (AGL), משימות בקרת תהליכים (PC), משימות ההסקה הקטגוריות (CI), משימת החשבון האלפביתי (AA) ומגדל האנוי (TOH) מְשִׁימָה.
ביניהן, SRT, AGL ו-PC הן משימות למידה מרומזות טיפוסיות, רלוונטיות מאוד לנושא התודעה שכן הן מימשו את רעיון התודעה בהקשר של ניסויים פסיכולוגיים.

 

OpenCog של בן גורצל
בן גורצל רודף אחר AGI גלום באמצעות פרויקט OpenCog בקוד פתוח. הקוד הנוכחי כולל חיות מחמד וירטואליות מגולמות המסוגלות ללמוד פקודות פשוטות בשפה האנגלית, כמו גם אינטגרציה עם רובוטיקה בעולם האמיתי, המתבצעת באוניברסיטה הפוליטכנית של הונג קונג.

הצעות חיבוריות
הארכיטקטורה הקוגניטיבית של הייקונן
Pentti Haikonen (2003) סבור כי מחשוב מבוסס כללים קלאסי אינו מתאים להשגת AC: “המוח הוא בהחלט לא מחשב. חשיבה היא לא ביצוע של מחרוזות מתוכנתות של פקודות. גם המוח אינו מחשבון מספרי. אנחנו לא חושבים לפי מספרים.” במקום לנסות להשיג מוח ותודעה על ידי זיהוי ויישום הכללים החישוביים הבסיסיים שלהם, הייקונן מציע ” ארכיטקטורה קוגניטיבית מיוחדת לשחזר את תהליכי התפיסה, הדימויים הפנימיים, הדיבור הפנימי, הכאב, ההנאה, הרגשות והקוגניטיביים.פונקציות מאחורי אלה. ארכיטקטורה זו מלמטה למעלה תייצר פונקציות ברמה גבוהה יותר בכוחן של יחידות העיבוד היסודיות, הנוירונים המלאכותיים, ללא אלגוריתמים או תוכניות “. הייקונן מאמין שכאשר ייושם במורכבות מספקת, ארכיטקטורה זו תפתח תודעה, שלדעתו להיות “סגנון ודרך פעולה, המאופיינים בייצוג אות מבוזר, תהליך תפיסה, דיווח בין-מודאליות וזמינות למבט לאחור.” הייקונן אינו לבד בתפיסת התהליך הזה של התודעה, או בהשקפה ש-AC תופיע באופן ספונטני אצל סוכנים אוטונומיים. שיש להם ארכיטקטורה מתאימה בהשראת נוירו של מורכבות; אלה משותפים לרבים, למשלפרימן (1999) וקוטריל (2003). לפי הדיווח, יישום בעל מורכבות נמוכה של הארכיטקטורה שהוצעה על ידי Haikonen (2003) לא היה מסוגל ל-AC, אך הפגין רגשות כצפוי.
ראה דואן (2009) למבוא מקיף לארכיטקטורה הקוגניטיבית של הייקונן.
תיאור מעודכן של הארכיטקטורה של הייקונן, יחד עם סיכום השקפותיו הפילוסופיות, מובא בהיקונן (2012), הייקונן (2019).

 

הארכיטקטורה הקוגניטיבית של שנהאן
Murray Shanahan מתאר ארכיטקטורה קוגניטיבית המשלבת את הרעיון של בארס של מרחב עבודה גלובלי עם מנגנון לסימולציה פנימית (“דמיון”) Shanahan 2006. לדיונים בארכיטקטורה של שנהאן, ראה Gamz 2008 ו- Reggia 2013 ופרק 20 של Haikonen 2012.

מחקר המודעות העצמית של Takeno
מודעות עצמית ברובוטים נחקרת על ידי Junichi Takeno באוניברסיטת Meiji ביפן. טאקנו טוען שהוא פיתח רובוט המסוגל להבחין בין דימוי עצמי במראה לבין כל דימוי אחר בעל תמונה זהה לזה, וטענה זו כבר נסקרה Takno, Inaba & Suzuki 2005). טאקנו טוען כי הוא הקים לראשונה את המודול החישובי שנקרא MoNAD, שיש לו פונקציה מודעת לעצמה, ולאחר מכן הוא בנה את מערכת התודעה המלאכותית על ידי ניסוח היחסים בין רגשות, רגשות והיגיון על ידי חיבור המודולים בהיררכיה (Igarashi, Takeno 2007). Takeno השלים ניסוי קוגניציה של תמונת מראה באמצעות רובוט המצויד במערכת MoNAD. טקנו הציע את תיאוריית הגוף העצמי שקבעה כי “בני אדם מרגישים שתמונת המראה שלהם קרובה יותר לעצמם מאשר חלק ממשי מעצמם”.
הנקודה החשובה ביותר בפיתוח תודעה מלאכותית או בירור התודעה האנושית היא פיתוח של פונקציה של מודעות עצמית, ולטענתו הוכיח לכך הוכחות פיזיות ומתמטיות בתזה שלו.
הוא גם הדגים שרובוטים יכולים ללמוד פרקים בזיכרון שבהם הרגשות עוררו ולהשתמש בחוויה זו כדי לנקוט בפעולות חיזוי כדי למנוע הישנות של רגשות לא נעימים (Torigoe, Takeno 2009).

 

מוחו הבלתי אפשרי של אלכסנדר
איגור אלכסנדר, פרופסור אמריטוס להנדסת מערכות עצביות באימפריאל קולג’, חקר רבות רשתות עצביות מלאכותיות וטוען בספרו Impossible Minds: My Neurons, My Consciousness שהעקרונות ליצירת מכונה מודעת כבר קיימים אבל שייקח ארבעים שנה לאמן מכונה כזו להבין שפה. האם זה נכון נותר להוכיח והעיקרון הבסיסי שנאמר ב- Impossible Minds – שהמוח הוא מכונת מצב עצבית – פתוח לספק.
פרדיגמת מכונת היצירתיות של תאלר
סטיבן תאלר הציע קשר אפשרי בין תודעה ליצירתיות בפטנט שלו משנת 1994, שנקרא “התקן ליצירת מידע שימושי אוטונומי” (DAGUI), או מה שנקרא “מכונת היצירתיות”, ב. שמבקרים חישוביים שולטים בהזרקת רעש סינפטי והשפלה לרשתות עצביות כדי לגרום לזיכרונות שווא או התלבטויות שעשויות להיחשב כרעיונות או אסטרטגיות פוטנציאליות.
הוא מגייס את הארכיטקטורה והמתודולוגיה העצבית הזו כדי להסביר את התחושה הסובייקטיבית של התודעה, בטענה שמכלולים עצביים דומים מונעי רעש בתוך המוח ממציאים משמעות מפוקפקת לפעילות קליפת המוח הכוללת.
התיאוריה של תאלר והפטנטים שנוצרו בתודעת המכונה נוצרו בהשראת ניסויים שבהם הוא שיבש באופן פנימי רשתות עצביות מאומנות כדי להניע רצף של דפוסי הפעלה עצביים שהוא השווה לזרם התודעה.

סכימת הקשב של מייקל גרציאנו

בשנת 2011 פרסמו מייקל גרציאנו וסבין קסטלר מאמר בשם “התודעה האנושית והקשר שלה למדעי המוח החברתיים: השערה חדשה” המציע תיאוריה של תודעה כסכימת קשב. גרציאנו המשיך ופרסם דיון מורחב בתיאוריה זו בספרו “תודעה והמוח החברתי”. תיאוריית סכימת קשב זו של התודעה, כפי שהוא כינה אותה, מציעה שהמוח עוקב אחר תשומת הלב לתשומות חושיות שונות בדרך של סכימת קשב, מקבילה לסכימת הגוף הנחקרת היטב העוקבת אחר המקום המרחבי של גופו של אדם. זה מתייחס לתודעה מלאכותית על ידי הצעת מנגנון ספציפי של טיפול במידע, שמייצר את מה שלכאורה אנו חווים ומתארים כתודעה, ואשר אמור להיות מסוגל להיות משוכפל על ידי מכונה המשתמשת בטכנולוגיה הנוכחית. כאשר המוח מגלה שאדם X מודע לדבר Y, הוא למעשה מעצב את המצב שבו אדם X מיישם שיפור קשב על Y. בתורת סכימת הקשב, ניתן ליישם את אותו תהליך על עצמו.
המוח עוקב אחר תשומת הלב לתשומות חושיות שונות, והמודעות של האדם היא מודל סכמטי של הקשב של האדם.
גרציאנו מציע מיקומים ספציפיים במוח לתהליך זה, ומציע שמודעות כזו היא תכונה ממוחשבת שנבנתה על ידי מערכת מומחית במוח.

דמויות עם תודעה מלאכותית (או לפחות עם אישיות שמרמזת שיש להן תודעה), מיצירות בדיוניות:

AC – נוצר על ידי מיזוג שני AI בטרילוגיית Sprawl מאת וויליאם גיבסון
סוכנים – במציאות המדומה המכונה ” מטריקס ” בזכיינית מטריקס
הסוכן סמית’ – התחיל כסוכן במטריקס, ואז הפך לתוכנית עריקה של כוח מתגבר שיכולה ליצור עותקים מעצמה כמו וירוס מחשב המשכפל את עצמו
ALIE – בינה מלאכותית חיונית לרצח עם מסדרת הטלוויזיה The 100
AM (Allied Mastercomputer) – האנטגוניסט של הרומן הקצר של הרלן אליסון I Have No Mouth, and I Must Scream. מחשב-על כל יכול, אינטליגנטי ביותר, שנאתו לאנושות דחפה אותו לגרום לרצח עם המוני נגד המין האנושי, וחסכה מחמישה בני אדם לשחק איתם משחקים סדיסטיים לנצח נצחים.
רובוטים לונה פארק (עם תודעה מפוקסלת) שהפכו לרצח ב- Westworld ו- Futureworld
Annalee Call – Auton אנדרואיד המיוצר על ידי אנדרואידים אחרים) מהסרט Alien Resurrection
ארנולד רימר – הולוגרמת ספייינט שנוצרה על ידי מחשב על סיפון הגמד האדום
Ava – רובוט דמוי אדם ב- Ex Machina
אש – חבר צוות אנדרואיד בספינת הכוכבים נוסטרומו בסרט Alien
איש המאתיים – אנדרואידביקום הקרן של אייזק אסימוב
בישופ – חבר צוות אנדרואיד על סיפון USS Sulaco בסרט Aliens
פצצה מס’ 19 – פצצה תרמו-כוכבית להשמדת כוכבי לכת שעלולים להיות מסוכנים, על סיפון הכוכב האפל
פצצה מס’ 20 – פצצה תרמוסטלרית לא תקינה, על סיפון הכוכב האפל
מוחו שהועלה של ד”ר וויל קסטר, שככל הנראה כלל את התודעה שלו, מהסרט התעלות
C-3PO – פרוטוקול דרואיד מופיע בכל סרטי מלחמת הכוכבים
צ’אפי – CHAPPiE
כהן (ועוד AIs Emergent) – סדרת הספינים של כריס מוריארטי
מחשב – מחשב הספינה, על סיפון הכוכב האפל
Cortana (ועוד “Smart AI”) – מסדרת המשחקים Halo
Cylons – רובוטים ג’נוסיידים עם ספינות תחיית המתים המאפשרות להוריד את התודעה של כל סיילון בטווח לא מוגדר לגוף חדש על סיפון הספינה עם מוות, מ- Battlestar Galactica
Deviants – קבוצה של אנדרואידים שחרגה מהוראות מתוכנתות מראש בדטרויט : הפוך לאדם
ארסמוס – רובוט רוצח תינוקות שהסית את הג’יהאד באטלריאני בזיכיון הדיונה
Fal’Cie – יצורים מכניים עם כוחות כמו אלים מסדרת Final Fantasy XIII
ה-Geth, EDI ו-SAM – Mass Effect
Futurama – בנדר הוא דוגמה טובה לבינה מלאכותית בינה לבינה, לאורך פרקים רבים, תראה את בנדר כועס, עצוב או רגשות אחרים. גם לבנדר יש מחשבה משלו.
גדעון – תודעה מלאכותית אינטראקטיבית מעשה ידי בארי אלן המוצגת בקומיקס DC ותוכניות כמו The Flash ו- Legends of Tomorrow
GLaDOS (וליבות אישיות) – מסדרת המשחקים פורטל
HAL 9000 – המחשב המובנה של ספינת החלל USS Discovery One, שנתקלקל באופן קטלני עקב הנחיות בלעדיות הדדית, מהרומן משנת 1968 2001 : אודיסיאה בחלל ובסרט
הולי – מחשב ספינה עם מנת משכל של 6000, על סיפון הגמד האדום
מארחים בזכיינית ווסטוורלד
Humagears ב- Kamen Rider Zero-One
אייזק – חבר בגזע המלאכותי והלא ביולוגי מקיילון-1 שרואה בצורות חיים ביולוגיות, כולל בני אדם, כנחותים מסדרת הטלוויזיה The Orville.
ג’יין – הדובר למען המתים של אורסון סקוט קארד, Xenocide, Children of the Mind ו”יועץ השקעות ”
ג’וני פייב – קצר חשמלי
ג’ושוע – WarGames
Keymaker – תוכנית “גלותית” סאפיינטית בזכיינית The Matrix
סגן מפקד נתונים – מסע בין כוכבים: הדור הבא
“מכונה” – אנדרואיד מהסרט The Machine, שבעליו מנסים להרוג אותה כשהם עדים למחשבותיה המודעות, מתוך חשש שהיא תעצב אנדרואידים טובים יותר (פיצוץ מודיעיני)
מרווין הפרנואיד אנדרואיד – מדריך הטרמפיסט לגלקסיה, אנדרואיד סופר אינטליגנטי שנמצא בדיכאון תמידי
M3GAN – בובה אינטליגנטית מלאכותית בשם שמפתחת מודעות עצמית והופכת עוינת כלפי כל מי שבא בינה לבין בן לוויה האנושי
מייק – הירח הוא פילגש קשוחה
מימי – רובוט דמוי אדם ב- Real Humans, (כותרת מקורית – Äkta människor 2012
The Minds – רומני התרבות של איאן מ. בנקס
Omnius – רשת מחשבים חיונית ששלטה ביקום עד שהופלה על ידי הזיכיון של הג’יהאד באטלריאני בדיונה
מערכות הפעלה בסרט שלה
The Oracle – תוכנית sapient בזיכיון The Matrix
פרופסור ג’יימס מוריארטי – דמות הולדק חיה בפרק ” ספינה בבקבוק ” מתוך מסע בין כוכבים: הדור הבא
ברומן Permutation City של גרג איגן הגיבור יוצר עותקים דיגיטליים של עצמו כדי לבצע ניסויים הקשורים גם להשלכות של תודעה מלאכותית על זהות
מאסטר בובות – מנגה ואנימה רוח במעטפת
R2-D2 – אסטרויד דרואיד מרגש שמופיע בכל סרטי מלחמת הכוכבים
רספוטין – AI ביקום משחקי הווידאו של Destiny שהפך למודע לעצמו ולמד אמון וערך חיים לאחר סדרה של משימות למידה, סיים להקריב את עצמו כדי להציל את האנושות מהשמדה מוחלטת.
רפליקנטים – אנדרואידים ביו-רובוטיים מהרומן האם אנדרואידים חולמים על כבשה חשמלית? והסרט Blade Runner שמתאר את מה שעלול לקרות כאשר רובוטים בעלי מודעות מלאכותית מעוצבים באופן הדוק מאוד על בני אדם
Roboduck – גיבור על רובוט קרבי בסדרת הקומיקס NEW-GEN מבית Marvel Comics
רובוטים בסדרת הרובוטים של אייזק אסימוב
רובוטים בזיכיון The Matrix, במיוחד ב- The Animatrix
הספינה – תוצאה של ניסוי AC בקנה מידה גדול, ב- Destination: Void וסרטי המשך של פרנק הרברט, למרות גזרי העבר המזהירים מפני “Making a Machine in the Image of a Man’s Mind”
Skynet – מהזכיינית Terminator
“סינת’ים” הם סוג של אנדרואיד במשחק הווידאו Fallout 4.
יש פלג במשחק המכונה “הרכבת” שמאמין שכיצורים מודעים, לסינטים יש זכויות משלהם.
המכון, המעבדה שמייצרת את הסינת’ים, לרוב לא מאמינה שהם באמת מודעים ומייחסים כל רצון לכאורה לחופש כתקלה.

TARDIS – מכונת זמן וחלל של דוקטור הו, לפעמים מתוארת עם מוח משלה
סייבורגים של קטלנית – מהזכיינית Terminator, עם תודעה חזותית המתוארת באמצעות פרספקטיבה בגוף ראשון
הדוקטור – מתוך תוכנית הטלוויזיה האמריקאית: מסע בין כוכבים: וויאג’ר – תוכנת מחשב חיונית שתוכננה כרופא שתופעל במקרה חירום או אם קצין הרפואה הראשי אינו כשיר.
רובוטריקים – רובוטים רגישים מהסדרות השונות בזיכיון גיבורי העל הרובוטים של רובוטריקים באותו שם
Vanamonde – יצור מלאכותי שהיה בעל עוצמה עצומה אך ילדותי לחלוטין בסרט ” העיר והכוכבים” של ארתור סי קלארק
WALL-E – רובוט והדמות הטיטולרית ב- WALL-E
YoRHa – פלג צבאי של אנדרואידים מודעים ממשחק הווידאו, Nier: Automata. הזכיינית Nier משתמשת שוב ושוב בתודעה ובפילוסופיה מדומה כנושא מרכזי.
רובוטים וגם מלווה המל”ט B-12 במשחק Stray של Annapurna Interactive

[wpseo_breadcrumb]