جامعههای گوناگون در شرق و غرب به کاربرد ماشینهای خودکار و هوش مصنوعی در زمینههای گوناگون رو میآورند. برای نمونه، شرکتهای بسیاری برای مراحل گزینش، برنامههای خاص تفکیک زندگینامههای شغلی درخواستکنندگان را به کار میبرند و گاهی، حتا داوطلبان باهوشتر حذف میشوند.
در این میان، پرسشهایی دربارهی مرزها و کیفیت اخلاقی کاربرد چنین فناوریهایی مطرح میشود. الکساندر لاکروا، روزنامهنگار و سردبیر «نشریه فلسفه» در فرانسه، در این مقاله به اخلاقمندی کاربرد ماشینها و الزام نظارت انسان بر کاربرد آنها میپردازد، موضوعی که در چارچوب آیندهپژوهی نیز طرحپذیر است.
در سال ۲۰۱۸، چند هفته پیش از انتشار این مقاله، رخدادی خبرساز شد: در ایالات متحده آمریکا، برخورد ماشینی خودران با زنی رهگذر او را از پا درآورد. پس از این سانحه، طرح پرسش از اخلاقمندی ماشین، ضروری میشود. آیا رباتها یا ماشینهای خودران میتوانند تشخیص خوب و بد از یکدیگر را بیاموزند؟ پنج کارشناس به این پرسش پاسخ میدهند.
کِنِث دبلیو گودمن، استاد علوم پزشکی و مدیر موسسهی اخلاق زیستی در دانشگاه میامی آمریکا میگوید: «تفاوت میان کردار هوش مصنوعی و انسان نه تنها در تفسیر زمینههای آن عملکرد، بلکه در این ویژگی نهفته که انسان شمار بسیاری از اصول را چنان تضمینی و بدیهی میبیند که به هیچ وجه به بیان آنها نیازی نیست و دقیقاً به همین دلیل است که داوری اخلاقی انسان در نظارت بر ماشینها امری الزامی است.» شاید باید این پرسش را هم به گفتهی گودمن افزود: آیا این الزام فقط در وضعیت فعلی تکنیک مطرح است؟
از سال ۲۰۱۶ تاکنون، نظرسنجیای در این زمینه ادامه داشته است. نزدیک به ۴۰ هزار نفر در آن شرکت کردهاند: نظرسنجی اینترنتی «اخلاق ماشین» را موسسه معتبر فناوری ماساچوست (MIT) طراحی کرده است.
هدف آن، پژوهش در انگیزش اخلاقی ما با تمرکز بر گزینههای تصمیمگیری ناخوشایند است.
یک نمونه: ترمز ماشینی خودران کار نمیکند و تنها دو امکان برای جلوگیری از فاجعه وجود دارد: باید آن را با برخورد به دیواری متوقف کرد که سرنشینان در آن کشته میشوند یا با زدنش به سه کودک که همان لحظه در راه بازگشت از مدرسه هستند، باعث توقف آن شد؟ آیا موضوع تفاوتی خواهد داشت، اگر آن کودکان با وجود چراغ قرمز از خیابان بگذرند یا نوزادی در میان سرنشینان خودرو باشد؟
این صحنه، بیپیشزمینه ابداع نشده است. با نزدیکی زمان جوازیابی ماشینهای خودران در خیابانهای ما در غرب، باید با مسئلهای روبهرو شویم که فیلیپا فوت، فیلسوف بریتانیایی، در سال ۱۹۶۷ آن را صورتبندی کرد و از آن پس، در گفتمان اخلاقی محافل انگلیسی-آمریکایی آن را با نام «مسئلهی تراموا»[1] (trolley problem) میشناسند: تراموایی شتابان به سوی پنج نفر در حرکت است. شما این امکان را دارید که سوزن خط آهن را طوری تغییر دهید تا با تغییر ریل تراموا فقط یک نفر در تصادف کشته شود. آیا با وجود مسئولیت مرگ آن یک نفر برای شما، دست به چنین کاری خواهید زد؟ اکثر مردم به این پرسش پاسخ مثبت میدهند. حالا وضعیت دیگری را در نظر بگیریم: شما میتوانید با هل دادن مردی بسیار سنگینوزن که در آن نزدیکی ایستاده، مسیر تراموا را مسدود کنید و مانع برخورد آن به عدهی بیشتری شوید. آیا چنین کاری را انجام میدهید؟ بیشتر افراد پاسخ منفی میدهند، هرچند نتیجه اقدام، همان جلوگیری از مرگ عدهای بیشتر باشد. این واکنش نشان میدهد که ما در وضعیتهای واقعی کاملاً «پیامدمحور» عمل نمیکنیم و پیامدباور نیستیم. به عبارت دیگر، ما داوری اخلاقیمان را در بارهی یک کنش، تنها بر مبنای نتیجه یا پیامدهای آن، شکل نمیدهیم (توضیح بیشتر در بخشهای بعدی).
دلبندم، نباید با ماشین من رانندگی کنی!
ژان فرانسوا بونفون، از متخصصان اصلی آزمونهای موسسهی فناوری ماساچوست، استاد مدرسهی عالی اقتصاد شهر تولوزِ فرانسه است. او در زمینهی روانشناسی شناختی تحقیق میکند. با او تماس میگیرم و مسئلهای را برایش مطرح میکنم: این واقعیت را که ما انسانها بر سر دوراهی، بیشتر به آسایش خود یا در همین راستا، آسایش نزدیکانمان توجه میکنیم. اما ماشینها کاملاً فایدهمحور عمل میکنند و بیشترین خرسندی ممکن، برای بیشترین افراد ممکن را در نظر دارند، چون برای این کار برنامهریزی شدهاند. نمونهای مشخص: اگر شرکت گوگل فرداروزی خودرویی با این برنامهریزی روانهی بازار کند که در وضعیتهای اضطراری مشخص، خود را به دیواری بکوبد، فقط در نهایت بیمیلی از آن استفاده میکنم و هرگز فرزندانم را سوار آن نمیکنم. آیا آمادگی کاربران برای تغییر تمایل با هدف کاربرد ماشینهای خودران، به این بستگی نخواهد داشت که آنها طوری برنامهریزی شده باشند تا بتوانند همواره سرنشینانشان را نجات بدهند، حتا اگر نتیجه غیراخلاقی باشد؟ بونفون در این مورد پاسخ میدهد: «شاید ترجیح بدهید، [برای پرهیز از خطای ماشین خودران] خودتان رانندگی کنید. اما فرض کنیم، یک ماشین خودران خطر تصادف رانندگی را تا ده برابر، پنج برابر یا حتا دو برابر مجموع موردهای گذشته کاهش بدهد. در این صورت، آیا چشمپوشی از این مزیت، آن هم تنها از ترس وضعیتهای احتمالیِ بسیار استثنایی، سویهای غیرعقلانی نداشت؟ آیا در این صورت، با چشمپوشی از ماشینهای خودران، عکس قضیه صادق نبود و خود شما مسئولیت اخلاقی محافظت از جان فرزندانتان را در برابر خطرهای رانندگی شخصیتان بر عهده نداشتید؟ »
به این ترتیب، آیا من تنها کسی هستم که از فکر نشستن در ماشینی خودران میترسم، چون ممکن است مرا در صورت محاسبهی نجات جان دو انسان دیگر در وضعیت اضطراری به دیواری بکوبد و بکشد؟ این پرسش را در گفتوگو با نیکلاس اِوِنز، استاد فلسفهی دانشگاه لاوِل (ماساچوست) در آمریکا، مطرح کردم. او بهتازگی همراه با گروهی پژوهشی ۵۵۶ هزار دلار بودجه از «بنیاد ملی علوم آمریکا» دریافت کرده تا الگوریتم یا دستوروارهای برای حل معمای تراموا طراحی کند. تا آنجا که من دریافتهام، موفقیت خودروهای شاسیبلند در بازار، بهویژه در میان پدران خانوادهها، بر این مبنا است که چنین خودروهای بزرگی، در عمل، هر نوع مانعی را سر راهشان از بین میبرند، ویژگیای که شاید چندان جامعهدوستانه نباشد، اما امنیتی بسیار آرامشبخش دارد. اِوِنز در ادامه اینگونه تحلیل میکند: «فرض کنیم شما فردی اهل سودباوری و پیامدباوریدر وضعیتهای زندگی هستید. هدف شما هم افزایش آسایش بیشترین شمار ممکن از افراد اجتماع است، اینطور نیست؟ بنابراین، جهانی که در آن، همه با ماشینهای خودران جابهجا میشوند، به دلیلی که گفته شد، از دید شما ارزش حمایت پیدا میکند. سرانجام، در چنین وضعی، مجموعاً نزدیک به ۹۰ درصد از تصادفها کم میشود. البته میدانید که چنان جهانی تنها در صورتی وجود خواهد داشت که چنین ماشینهایی در هر وضعیتی از سرنشینان خود محفاظت کنند، وگرنه، مردم از سوار شدن خودداری میکنند. یک فایدهباور منطقی، این را خواهد پذیرفت که ما در مورد چنین خودروهایی از این قاعدهی الزامآور، وظیفهمحور و بحثناپذیر پیروی میکنیم تا رفاه عمومی را افزایش بدهیم: ماشینهای خودران همیشه از سرنشینانشان محافظت میکنند، چون این ویژگی و قاعده با منش اخلاقی ما سازگار است. این وضع را سودباوری خویشتندارانه (self-effacing utilitarianism) مینامند، فایدهباوریای که خود را بازمیدارد و محدود میکند. برای دستیابی به هدفی سخت فایدهباورانه، گاهی عقلانی است که قاعدهی اخلاقی الزامآوری را بپذیریم.» [2]
ژان فرانسوا بونفون، به این موضوع به گونهی دیگری مینگرد: «در جایگاه روانشناس، فکر میکنم که باید با نوعی ظاهرسازی بنیادین مقابله کنیم. بعضی تصمیمهای اخلاقی خاص دردناک هستند؛ ما دوست نداریم دربارهشان فکر کنیم. به همین دلیل، طرفدار این برداشت هستیم که پیشامدهایی ناگزیر وجود دارند و این، بخشی از زندگی بشری است. بعد هم با بیعرضگی خاصی به خود میگوییم: ‘ما به رویکردی سامانمند نیاز نداریم. اگر وضعیت بغرنجی پیش بیاید، خواهیم دید که بسته به دریافت درونی در همان لحظه، چه باید کرد.’ مسئلهای که کاربرد خودروهای خودران پیش میکشد، آن است که ما را مجبور میکند، دستمان را رو کنیم. – من شخصاً طرح این مسئله را نوعی فرصت میدانم. – ما باید بر سر اصول این وضعیت تازه با یکدیگر به تفاهم برسیم؛ به شناسایی موردهایی برسیم که این اصول در آنها پذیرفتنی نیستند و بر سر اصول با یکدیگر بحث و آنها را روشن کنیم. بنابراین، باید به قلمرو شبههانگیزی پا بگذاریم که تا به حال ترجیحاً از آن دوری جستهایم.
شبههزدایی از قلمرویی شبههانگیز – آیا اصلاً میتوان چنین کرد؟ نیکُلاس اِوِنز در این باره شک دارد و میگوید: «مسئله این است که ما نمیدانیم یک ماشین حقیقتاً اخلاقمند باید چه ماهیتی داشته باشد. یکی از جهانرواترین فرمانهای اخلاقی را در نظر بگیریم: ‘نباید انسانی را بکشی! ‘ آیا خودرویی قابل تصور است که این فرمان را رعایت کند؟ نیست! این واقعیت ساده که ماشینی را برنامهریزی میکنیم، ما را به پذیرش دیدگاهی پیامدمحور و سودمحور وامیدارد، حتا اگر چنین گزینههای فلسفیای برایمان زننده باشند.»
رباتهای جنگی در حال پیشرفتاند؟
گروهی از دستگاهها هستند که بر خلاف ماشینهای خودران مشخصاً برای کشتن طراحی شدهاند: پهپادهای جنگی. از چند سال پیش تا کنون، جنگافزارسازان – بهویژه در ایالات متحده آمریکا- سرگرم ساخت رباتهای جنگی مستقل و دستگاههای خودجنگ مانند پهپادها بودهاند که دیگر نیازی به همراهی فیزیکی سربازی برای هدایت آنها وجود نداشته باشد، بلکه خودشان بتوانند یکباره، با اعزام به عملیات، فرمانهای نظامیشان را بیهمراه و خودکار پیاده کنند.
آغازگر یکی از استدلالهای اصلی در دفاع از ساخت چنین رباتهایی رونالد سی. آرکین، پژوهشگر مهندسی رباتیک، است. طبق استدلال او رباتها ت نابودسازی خود را دارند، در حالی که یک سرباز وظیفه در عملیات، به هر قیمتی برای نجات جان خود میکوشد و در صورت نیاز، بیاختیار به پیرامون خود نیز شلیک میکند. اما برای نمونه، یک پهپاد پیش از هر ویرانگری دیگر، قابلیت انفجار خودکار دارد تا خطر کشتن غیرنظامیان یا کودکان
را پدید نیاورد. در مقابل، پیتر آسارو، استاد مدرسه عالی نوین نیویورک و کارشناس اخلاق در مهندسی رباتیک، میگوید: «چنین استدلالی مرا قانع نمیکند. از یک سو، پیشبینی رفتار انسانها در عملیات جنگی دشوار است و بر پایهی تجربه میدانیم، سربازان بسیاری بودهاند که قربانی نجات همرزمانشان یا حفظ منطقهای خاص شدهاند. از سوی دیگر، بهسختی میتوانم نمونههایی از صدور فرمان نظامی برای نابودی جنگافزارهای گرانقیمت را به یاد بیاورم. کدام ارتش را سراغ داریم که آگاهانه تانکها، بالگردها یا پهپادهای خود را برای حفظ جان غیرنظامیان نابود کرده باشد؟ »
آسارو از بنیانگذاران «کمیتهی بینالمللی نظارت بر جنگافزارهای رباتیک» (ICRAC) است. سازمانی غیردولتی، دربرگیرندهی پژوهشگرانی که پیشنهادهایی برای ساماندهیِ قانونیِ کاربرد جنگافزارهای خودکار از سوی نیروهای نظامی تهیه میکند. یکی از موفقیتهای این سازمان، ایجاد «کارزار ممنوعیت رباتهای مرگبار» بود که در سال ۲۰۱۵ با فراخوان ممنوعیت کاربرد پهپادها به عرصهی عمومی راه یافت و ۱۵۰۰ شخصیت سرشناس مانند استیون هاوکینگ، اخترفیزیکدان، دانیل دِنِت، فیلسوف، و اِلُن ماسک، کارآفرین، آن را امضا کردند.
اکنون، مدافعان کاربرد سامانههای خودجنگ استدلال دیگری نیز دارند: میتوان چنین جنگافزارهایی را طوری تنظیم کرد که هرگز خطا نکنند. یعنی برای نمونه، به غیرنظامیان، زنان، سالخوردگان یا کودکان شلیک نکنند. آسارو در این باره چنین توضیح میدهد: «تفکیک میان هدفها اصلی اساسی در حقوق جنگ است. این اصل به معنای توانایی تشخیص میان غیرنظامیان و نظامیان است. اگر مسئله فقط تشخیص دیداری این دو از یکدیگر باشد، بیشک ماشینها مناسبترین گزینه هستند. اما این تشخیص چندان آسان نیست، زیرا مقولهی ‘غیرنظامیان سهیم در درگیریهای جنگی’ نیز وجود دارد. در اینجا با معیاری روبهرو نیستیم که بیدرنگ تشخیصپذیر باشد، بلکه با ویژگیای در پیوند با رفتار آن غیرنظامیان مواجهایم. آیا چنین غیرنظامیای تنها از سر خشم، سنگی را برمیدارد و آن را به سوی خودروی جنگی پرتاب میکند یا از شیوهی حرکت فرد در محوطهی حضورش آشکار میشود که در میانهی اجرای فرمانی نظامی است؟ آیا باید او را تهدید به شمار آورد؟ رمزگشایی چنین سویههای رفتاریای تنها با درک مشخصی از برهمکنشهای اجتماعی و دانش روانشناسی ممکن است. حقوق جنگ تنها زمانی اجازهی حمله به غیرنظامیان را میدهد که مستقیم در درگیریهای جنگی سهیم باشند و ماشینهای جنگی خودکار توان تشخیص چنین ویژگیای را ندارند.»
دومین اصل مهم در حقوق جنگ، تناسب است: کسی تمام روستایی را نابود نمیکند تا پنج پیکارجوی درگیر جنگ را در آن از بین ببرد. کاربرد خشونت باید متناسب با هدفهای نظامی و تهدیدهای واقعی باشد. آسارو میگوید: «رعایت اصل تناسب در جنگ نیز نیازمند قوهی داوری انسان است. در این زمینه، از جمله، فوراً این مسئلهی دشوار پیش میآید: برای دستیابی به هدف نظامیتان خطر انهدام کدام زیرساختها را میپذیرید؟ فرض کنیم، نزدیک یک انبار مهمات دشمن، بیمارستان یا مدرسهای وجود داشته باشد. آیا با وجود این، باز هم به آن زرادخانه حمله میکنید؟ در مورد انفجار مدرسه امکان بمباران شبانه برای آسیب نرسیدن به کودکان وجود دارد، اما در مورد بیمارستان، به دلیل وجود بیماران، چنین راه حلی در کار نیست. پاسخ معیاری وجود ندارد. راهبردها و هدفهای نظامی ممکن است ساعت به ساعت تغییر کنند. بههمین دلیل، یک فرمانده نظامی باید مسئولیت قانونی فرمانهای خود را بپذیرد. اما اگر جنگافزاری گزینهی انهدام را انتخاب و مدرسهای با ۳۰۰ کودک دانشآموز را بمباران کند، چه کسی مسئول چنین کشتاری خواهد بود؟ همان دستگاه؟ برنامهنویس آن؟ در این وضعیت، گزینهی دیگری نداریم: نمیتوانیم از انسانهای دستاندرکار چشم بپوشیم.»
کشمکش جایگزینناپذیر
نولن گِرتس، استاد فلسفهی دانشگاه توِنته (Twente) در هلند، نیز همین نگرش را دارد: «سنت فکری ‘جنگ منصفانه’ به آگوستین قدیس بازمیگردد. این سنت به ما میآموزد که از نظر اخلاقی ناشایسته است که رزمندگان از کشتن انسانهای دیگر خشنود باشند. جنگ منصفانه تنها در حالتی ممکن است که بازیگران آن نه گرفتار هیچانگاری باشند، نه دگرآزاری، و اساساً از کشتن بیزار باشند، اما تنها به اقتضای وضعیت جنگی، بر خلاف اصول اخلاقی بنیادین خود عمل کنند، زیرا از نظر آنها موضوع دفاع مجاز یا جلوگیری از خشونت گستردهتر در میان است. این ویژگیها وضعیتی پیچیده را پیش میکشند: جنگ تنها در وضعی منصفانه میشود که پیشبرندگاناش، از بکارگیری آن ناخشنود باشند. با کاربرد ماشینهای خودجنگ این کشمکش درونی و ناخشنودی از بین میرود.»
یقیناً، همینطور است. اما عکس این استدلال نیز صادق است: اگر بتوان با بکارگیری رباتها در اجرای جنگ، آنها را کامل، جایگزین انسان کرد و بی هیچ خطر جانیای حتا برای یک سرباز و بدون تصمیمگیریهای مرگبار با عذاب وجدان برای هدایتکنندگان هواپیماهای بیسرنشین، به یک پیروزی نظامی دست یافت، چرا نباید با چنین شیوهای، از هرگونه رنج مردم خودی کاست؟ گرتس در توضیح این موضوع میگوید: «به نظرم، این استدلال روا نیست، چون نقش فناوری در این میان، صرفاً ابزاری و خنثی نیست. تکنیک در رفتار و فرایندهای تصمیمگیری اخلاقی ما اثر میگذارد، به آنها شکل میدهد و در آنها نفوذ میکند. فرض کنیم آنطور که در استدلال پیشین شما آمد، وقتی میجنگید و توان دشمن را تحلیل میبرید، هیچ بهای انسانی و روانیای با آن همراه نباشد، زیرا رباتها کار کثیف کشتار را انجام میدهند. این ویژگی پذیرش جنگ را در افکار عمومی و از دید یک دولت یا ستاد فرماندهی با افزایش چشمگیری روبهرو میکند. به عبارت دیگر، کار کشتن بسیار سادهتر میشود. جهانی پر از ربات را با مجوز کشتار تصور کنید! آیا چنین جهانی در نظرتان خوشایند جلوه میکند؟ »
اما گسترهی سومی با استلزامهای سنگین اخلاقی نیز وجود دارد که هوش مصنوعی در آن شتابان پیشرفت میکند: پزشکی. «واتسون»، ابررایانهی شرکت آیبیام، که پیشتر برندهی مسابقهی تلویزیونی جِپِردی در زمینهی معلومات عمومی در آمریکا، شده است، کمی قبل، در دانشگاه توکیو در بررسی زن بیماری، پس از سنجش ۲۰ میلیون گزارش پژوهشی در ۱۰ دقیقه، نوع کمیابی از سرطان خون را تشخیص داد. این رایانه حتا روش درمانی مناسب برای بیماری را نیز پیشنهاد کرد. اما فرض کنید هوش مصنوعی در تشخیص بیماری خطایی جدی مرتکب شود. آنوقت چه کسی مسئول آن خطا است؟ کِنِث دبلیو گودمن، استاد علوم پزشکی و مدیر موسسهی اخلاق زیستی در دانشگاه میامی آمریکا، در پاسخ به این پرسش میگوید: «در این مورد، مشکل بزرگی در نسبت دادن کنشها به کنشگران وجود دارد. ماجرای جراحی را در نظر بگیریم که از ده سال قبل، یک دستگاه جراحی را با موفقیت به کار گرفته است. در عملی دشوار، این دستگاه با نقص فنی روبهرو میشود و بیمار آسیب میبیند. آیا جراح مسئول آسیب به بیمار است؟ بله، البته اگر موضوع را اینگونه در نظر بگیریم که جراح جایگاهی مانند ناخدای کشتی دارد و در نتیجه، باید مسئولیت بروز رویدادها را بپذیرد. اما به باور من، در مورد این جراح، بیشتر با مسئولیت مشترک روبهرو هستیم. سامانههای پشتیبانِ تصمیمهای درمانی که رفتهرفته کاربرد بیشتری مییابند، ما را به دورانی میرسانند که در آن ردههای مسئولیتی بسیاری وجود دارند. مسئولیتهایی مانند اینکه چه کسی پایگاه دادههایی را طراحی کرده که هوش مصنوعی رایانهها از آن استفاده میکند؟ چه کسی برنامهنویس آن بوده است؟ این پرسشها زمانی پیچیدهتر میشوند که بیشتر کدهای کاربردی در برنامهی سامانههای پزشکی را چندین نفر نوشته باشند. منشأ بعضی از آن کدها، برنامههای متنباز است که محققان یا شرکتها، آنها را برای کاربردی خاص تغییر دادهاند. بنا بر این، مجبور خواهیم بود برای چنین سرزمین بیمالکی قاعدههای بینالمللی تعریف کنیم.»
پیتر آسارو که توسعهی هوش مصنوعی در زمینهی پزشکی را نیز دنبال میکند، در تکمیل این گفتهها، هرچند بهدور از عاطفه و احساسات، توضیح میدهد: «بیمارستانها هنگام تخصیص منابع کمیاب مانند خون برای انتقال به بیمار یا اندام برای جراحی پیوند، سنجشگریهای اخلاقی دشواری پیش رو دارند. برای نمونه، اولویت با کدام بیماران است؟ در اینجا موردی را پیش رو داریم که ذهنیت پزشکان، همدردی آنها با بیمارانی خاص یا حتی مبلغ پولی که بیمار میتواند برای درمان حیاتی خود هزینه کند، ممکن است خطر تحریف تصمیمها به نفع فردی مشخص را در پی داشته باشد. در این زمینهی کاملاً محدود شاید تصمیمهای سامانهای با هوش مصنوعی واقعبینانهتر و از نظر اخلاقی بهتر باشد.»
آیا دگرگونی با گذشت زمان خواهد رسید؟
آنگونه که طبق یافتههای ما به نظر میرسد، کاربرد هوش مصنوعی در پزشکی یکی از موردهای بسیار کمشماری است که در آن، انسان از نظر اخلاقی نسبت به رایانه با خطر به دست دادن داوریهای اخلاقی ضعیفتری روبهرو است. اما فراتر از آن چطور؟ گودمن میگوید: «ماجرایی از روزهای نخست ایجاد هوش مصنوعی وجود دارد که به نظرم فوقالعاده است. سه شیئ را در برابر یک ربات قرار دادهاند. یک کره، یک هرم و یک مکعب چوبی. آزمایشگر از ربات میخواهد هرم را روی مکعب قرار دهد. ربات موفق به انجام این کار میشود. آفرین! در آزمایش بعدی قرار است، جسم کرهایشکل را روی مکعب قرار دهد. ربات تلاش میکند، اما کره از روی مکعب فرومیغلتد. ربات بارها و بارها تلاش میکند که کره را روی مکعب قرار دهد. نمیداند که این کار ناممکن است. این ماجرا پند روشنگری برای زمانهی ما دارد: داوریهای اخلاقی و آداب رفتار ما، در پیشزمینهی خود، مشروط به آگاهیهای تلویحی و ضمنیای هستند که همیشه، قابل توضیح و برنامهریزی نیستند، زیرا تعداد بیشماری از آن دانستههای پیشزمینهای وجود دارد. لودویک ویتگنشتَین، فیلسوف اتریشی، این عرصه را محدودهی اطمینان یا یقینیات مینامد.»
در این زمینه، نمونهی موجزی به ذهنم میرسد که ویتگنشتَین آن را مطرح کرده است: شخصی که دست همسایهاش را قطع میکند تا ببیند آیا دست دیگری جای آن رشد میکند یا خیر، دانشمندی نیست که آزمایشی علمی انجام میدهد، بلکه یک دیوانه است. گودمن در همین زمینه میگوید: «دقیقا! مشکل همینجا است! ما انسانها هرگز راضی نمیشویم که بیچونوچرا از قاعدهای پیروی کنیم، چون قاعدههای مفصل و بدیهی تنها محدودهی کوچکی از کنش انسان را در بر میگیرند. تفاوت میان کردار هوش مصنوعی و انسان نه تنها در تفسیر زمینههای آن عملکرد، بلکه در این ویژگی نهفته که انسان شمار بسیاری از اصول را چنان تضمینی و بدیهی میبیند که به هیچ وجه به بیان آنها نیازی نیست و دقیقاً به همین دلیل است که داوری اخلاقی انسان در نظارت بر ماشینها امری الزامی است.» شاید باید این پرسش را هم به گفتهی گودمن افزود: آیا این الزام فقط در وضعیت فعلی تکنیک مطرح است؟
پانویسها
[1] در سال ۱۹۶۷، فیلیپا فوت، فیلسوف بریتانیایی، این آزمایش فکری را ابداع کرد: تراموایی شتابان به سوی پنج نفر در حرکت است و در این وضعیت، خطر زیر گرفتن آنها وجود دارد. اگر شما شاهد چنین صحنهای باشید، سوزن ریل تراموا را به گونهای تغییر میدهید که با انتقال مسیر حرکت به ریل کناری که فقط یک نفر از آن میگذرد، همان یک نفر را بر اثر تصادف از پا درآید و پنج نفر دیگر زنده بمانند؟
[2] دو رویکرد فکری پیامدمحوری و اخلاق وظیفهگرا را میتوان اینگونه مقایسه کرد: برای پیامدباوران پیامدهای عمل اولویت دارد. اگر این پیامدها خوشایند باشند، خود آن کنش نیز خوشایند است. مهمترین نمایندگان این مکتب فکری جرمی بنتام (۱۸۳۲ – ۱۷۴۸) و جان استوارت میل (۱۸۷۳ – ۱۸۰۶)، فیلسوفان انگلیسی، هستند.
مهمترین نمود مکتب پیامدباوری (Konsequenzialismus)، سودباوری (Utilitarismus) است (برگرفته از ریشهی لاتین utilis به معنای مفید یا سودمند). برای سودمندباوران، معیار تعیینکننده، بیشترین میزان فایده برای بیشترین افراد ممکن است. برای نمونه، خودروی برنامهریزیشده طبق این رویکرد، در صورت بیشتر شدن شمار کل کشتههای برجامانده در راه حفاظت از جان سرنشینان خود نسبت به تعداد کل سرنشینان، خطر جانی برای سرنشینان را نادیده میگیرد تا تعداد بیشتری کشته نشوند.
در مقابل، اخلاق وظیفهگرا (deontologische Ethik) (از ریشهی یونانی deon بهمعنای وظیفه) اساساً رویکرد متفاوتی دارد. در این گرایش، معیار الزامآور برای کارهای نیک اخلاقی، نه پیامدهای آنها، بلکه قانونها و حکمهایی است که هر عمل، جدا از زمینههایش، باید براساس آنها انجام بگیرد. برجستهترین نمایندهی این رویکرد ایمانوئل کانت (۱۸۰۴–۱۷۲۴)، فیلسوف آلمانی، است. برای نمونه، خودروی برنامهریزیشده طبق این رویکرد اخلاقی، ارزش زندگی انسانها و تعداد جانباختگان احتمالی را با یکدیگر مقایسه نمیکند، بلکه به دنبال اجرای اصل مهم برنامهریزی خود است: «همیشه از جان سرنشینان محافظت کن!»