18-11-2017, 05:51
|
|
|
|
חבר מתאריך: 03.03.10
הודעות: 17,061
|
|
למרבה הצער, רגולציה וחקיקה לא יעזרו במיל מאותה הסיבה שלמרות כל הרגולציה והחקיקה, מדינות שממש מעוניינות בייצור נשק גרעיני הגיעו לשלב שבו יש להן נשק גרעיני. אתה יכול להגביל מו"פ על בינה מלאכותית צבאית במדינות המערב על ידי חקיקה, רגולציה והסכמים בינלאומיים. למדינות שלא ממש אכפת להן מהסכמים בינלאומיים זה לא יזיז והפיתוח בהן ימשך.
מעבר לכך, שני דברים.
ראשית אנקדוטה: בשנות התשעים המוקדמות יצא לי לדבר עם אדם שהיה מבוגר ממני בכמה שנים על מה שאני מכנה "תסמונת פרנקנשטיין" - הפחד מן הגולם שיקום על יוצרו, הברוא שיפיל את בוראו מכס המלכות. כשתיארתי בפניו תסריט בו האנושות מתאחדת כנגד איום גדול בהרבה - רובוטים עצמאיים - הוא הביע התנגדות מוחלטת וציטט את חוקי הרובוטיקה של אסימוב וטען שלא יהיה רובוט ללא חוקי הרובוטיקה של אסימוב. שאלתי אותו מה ימנע ממישהו לבנות רובוט בלי חוקי הרובוטיקה. הוא אמר שאיש לא יבנה כזה רובוט. שאלתי למה. הוא אמר שכל ההיגיון בחוקי הרובוטיקה הוא שכל הרובוטים יהיו מתוכנתים עם חוקים אלו.
הייתי בן 13 אז ויכולתי להתדיין עם אדם מבוגר הייתה מוגבלת אז לא הצלחתי להעביר את אותו חשד שכבר אז קינן בי, חשד שטום קלנסי ניסח באופן נפלא: "אין שום חוק שמכריח את העולם להתנהג בהיגיון".
הסיבה שאני נזכר באנקדוטה זו היא כי לא משנה כמה רגולציות והגבלות תשים, מישהו יעבור על החוק. בנקודה מסויימת מישהו ישחרר בינה מלאכותית חמושה. לחשוב שאפשר למנוע זאת באמצעות רגולציה זו הטמנת ראש בחול
שנית, בין רחפן קרבי אוטונומי ובין בינה מלאכותית אמיתית יש הבדל של שמיים וארץ. אני לא חושב שהיה צריך להכניס את הדיון על בינה מלאכותית לתוך הדיון הזה. רחפן קרבי אוטונומי יוכל לפעול אך ורק במסגרת הפרמרטרים שתוכנתו בו. הוא לא יחליט פתאום להרוג מישהו כי בא לו. הוא יבצע תהליכים מתוכנתים בתגובה לפקודות ממפעיל אנושי.
לעומת זאת בינה מלאכותית - יצור חי עם מודעות עצמית שחושב באופן עצמאי - תחליט בשביל עצמה. ברגע שתייצר כלי חמוש שמסוגל להחליט עבור עצמו מה לעשות, אתה בסקאלה אחרת לגמרי של בעיות
_____________________________________
מר רוג - כי החיים קצרים מדי לשמות מלאים
|