دیدگاه

سامانه لاوندر (lavender یا اسطوخودوس) یکی از هوش‌های مصنوعی است که اسرائیل متهم به استفاده از آن در جنگ غزه است. این سامانه با کمک ابزارهای شناخت صورت، مشخص می‌کند کجا بمباران شود.

گاردین در گزارش «ماشین به‌سردی انجامش می‌دهد: استفاده اسرائیل از هوش مصنوعی برای شناسایی ۳۷هزار هدف حماس» می‌گوید در نخستین هفته‌ها و ماه‌های جنگ، مقام‌های نظامی این کشور به هوش مصنوعی اجازه داده‌اند تا با شناسایی افراد، محل‌های بمباران را مشخص کند و بدین‌ شکل، تعداد گسترده‌ای از افراد متهم به ارتباط یا هواداری از حماس کشته یا زخمی شده‌اند.

یکی از نظامی‌هایی که از این سامانه استفاده کرده به گاردین گفته هر روز چندین مرتبه، «حدودا ۲۰ ثانیه» وقت می‌گذارد تا تصمیم هوش مصنوعی را تایید کند. او می‌گوید:

اینجا همه، از جمله خودم، افرادی را در ۷ اکتبر از دست دادیم. ماشین به سردی انجامش می‌دهد و این کار را ساده می‌کند.

مجله اسرائیلی و فلسطینی «+۹۷۲» در گزارش پژوهشی «لاوندر: هوش مصنوعی ماشینی بمباران اسرائیل در غزه را هدایت می‌کند» می‌گوید واحد اطلاعاتی ۸۲۰۰ اسرائیل استفاده از هوش مصنوعی بدین‌شکل را مطرح کرده است. نتیجه این شده که حتی افراد دون‌پایه حماس به هدف بمباران تبدیل شدند، حتی اگر ماشین به اشتباه آنان را شناسایی کرده باشد یا ماشین به اشتباه آنان را عضو یا هوادار حماس تشخیص داده باشد. حتی اگر آنان با دیگر افراد، از جمله سالمندان، کودکان و زنان احاطه شده باشند.

همیشه در تحلیل یا تولیدهای فرهنگی مرتبط به هوش مصنوعی، صحبت از این است که ماشین باید کلید فیزیکی برای خاموش شدن داشته باشد تا بتوان آن را همیشه در کنترل انسان باقی نگهداشت. همزمان صحبت از این بود که ماشین نباید اجازه کنترل اسلحه‌ و انتخاب هدف را داشته باشد. چون به‌بیانی ساده، از سامانه لوندر انحراف شروع می‌شود و درنهایت شاید به آنجا برسیم که ماشین‌ها تمامی بشریت را هدف حمله خود قرار دهند.

ولی چرا نسبت به هوش مصنوعی آن‌قدر که باید حساس نیستیم؟ شاید چون به این شبکه‌ها معتاد شده‌ایم. یا آنگونه که مکس فیشر در کتاب «ماشین آشوب: روایتی از درون شرکت‌های فن‌آوری دراین‌باره که چگونه شبکه‌های اجتماعی ذهنیت‌های ما و دنیای ما را عوض کردند» نوشت:

به مرحله‌ای رسیده‌ایم که آنچه را پرطرفدار و از دید احساسی طنین‌انداز باشد، خیلی بیشتر از آن چیزی می‌بینیم که واقعی‌ست.

Ad placeholder

هشدارهایی که جدی گرفته نشد: هوش مصنوعی بحران اجتماعی درست می‌کند

مجمع جهانی اقتصاد در گزارش «خطرات جهانی سال ۲۰۲۴ میلادی: در یک نقطه عطف» مفصل به نقش هوش مصنوعی پرداخته است. در این گزارش، رویدادهای شدید آب‌وهوایی که از گرمایش زمین شکل گرفته‌اند، بزرگ‌ترین خطر جهان در این سال معرفی شده‌اند. خطر دوم، «خبرهای جعلی و دروغ‌های تولید هوش مصنوعی» و خطر سوم «چندقطی شدن اجتماعی یا سیاسی» است که به شبکه‌های اجتماعی و هوش مصنوعی گره خورده است. مجمع جهانی اقتصاد در بخشی از این گزارش نوشته است:

  • اطلاعات نادرست و خبرهای جعلی در دو سال آینده بر فرآیندهای انتخاباتی چندین اقتصاد جهان تاثیر خواهند گذاشت.
  • بی‌اعتمادی فزاینده به اطلاعات، و همچنین به رسانه‌ها و دولت‌ها به‌عنوان منابع خبری، دیدگاه‌های قطبی شده را تشدید خواهد کرد – یک چرخه معیوب که می‌تواند بانی ناآرامی‌های مدنی و رویارویی‌های اجتماعی شود.
  • خطر سکوب و نقض حقوق در این شرایط شکل می‌گیرد چون مقامات حکومتی به‌دنبال سرکوب گسترش اطلاعات نادرست هستند – یا نسبت به آن دست به اقدامی نمی‌زنند.

مکس فیش در کتاب «ماشین آشوب» روند افراطی شدن و دور شدن ذهنیت ما از واقعیت مشترک‌مان را این چنین توضیح داده است:

به یاد داشته باشید تعداد ثانیه‌های یک روز شما تغییر نمی‌کند. با وجود این، مقدار محتوایی که شبکه‌های اجتماعی برای کسب آن ثانیه‌های شما به رقابت مشغول‌اند، بسته به شیوه مصرف شما، هر سال یا تقریبا در چنین بازه زمانی‌ای، دو برابر می‌شود. به‌عنوان مثال تصور کنید که در یک شبکه اجتماعی ۲۰۰ پست برای شما عرضه می‌شود هرچند شما وقت توجه به ۱۰۰ پست را دارید. با توجه به جهت‌گیری این پلتفورم، جنجالی‌ترین نیمه این ۲۰۰ پست را خواهید دید. سال بعد، وقتی این ۲۰۰ پست به ۴۰۰ پست برسد، جنجالی‌ترین‌های سه ماهه را یک‌جا خواهید دید، سال بعد از آن جنجالی‌ترین‌های یک هشتم سال را یک‌جا می‌بیند. با گذشت زمان، تصور شما از جامعه خود به طور افراط‌گونه‌ای اخلاقی‌تر [برابر دیدگاه شخصی شما]، خشمگین‌تر و آزاردهنده‌تر می‌شود و بدین‌شکل، تصور شما از خودتان هم همزمان متفاوت می‌شود و دیگر سراغ محتوایی که جنجالی نباشد نمی‌روید.

شبکه‌های اجتماعی، بر پایه اعتیاد شکل گرفته‌اند. برای همین به‌جای مشتری یا واژه‌یی شبیه به آن، شما مصرف‌کننده (user) محسوب می‌شوید. به قول مکس فیشر، استفاده از شبکه‌های اجتماعی شبیه به اعتیاد به سیگار است. ما را درگیر خود می‌کند و به‌سختی می‌توان آن را کنار گذاشت و همزمان ما را به کل متفاوت کرده است: عصبانی‌تر، افراطی‌تر، در گروه‌های کوچکی که افراد همسان خودمان آن را پر کرده‌اند.

با چنین ذهنیت‌های افراطی‌شده، برای شما باورناپذیر می‌شود که چگونه می‌توان نسل‌کشی در نوار غزه را نادیده نگرفت یا گرفت. یا برای شما باورناپذیر می‌شود که چگونه می‌شود طرفدار اسرائیل بود یا نبود. یا در مثالی به کل متفاوت اما آشناتر، برایتان به کل غریب است که دیگران واکسن می‌زنند، یا برایتان عجیب است که چرا افرادی واکسن نمی‌زنند. حبس شده در این ذهنیت، فکر می‌کنیم باید برای خیر جامعه دست به عمل بزنیم. مثلا باید برویم و از افراد بی‌حجاب عکس و فیلم بگیریم و در «سامانه ناظر» آن را آپلود کنیم. همه می‌خواهند بقیه را به بهشت خودشان ببرند، آن هم در جهانی که واقعیت مشترک آن بشدت ضربه خورده است.

عفو بین‌الملل در چنین فضایی اخیرا نسبت به رویدادهای معاصر هشدار داد و نوشت:

هوش مصنوعی به سرعت در حال خلق تغییر برای ایجاد زمینه مناسب نژادپرستی، تبعیض و تفرقه در این سال تاریخی برای انتخابات عمومی است.

در چنین فضایی است که «هوش‌مصنوعی‌گرایی» (AI-tocracy) شکل می‌گیرد. این عبارت را از شیوه سرکوب‌گری حکومت چین گرفته‌اند. یک مثال آن در پژوهش «هوش‌مصنوعی‌سالاری» (یا حاکمیت هوش مصنوعی) فصلنامه ژورنال اقتصادی آکسفورد می‌توان یافت که نشان می‌دهد چگونه هوش مصنوعی از سرکوب‌های حکومتی سود می‌برد: چون کاربری، بودجه و فضای عمل بیشتری در اختیار هوش مصنوعی قرار می‌گیرد.

زمان لازم است تا پژوهشگران از مقدار نقش هوش مصنوعی در ناآرامی‌های امروز ما بگویند اما می‌توان به هشدارهای پژوهشگران و سازمان‌های بین‌المللی توجه بیشتری نشان داد چون به‌نظر می‌رسد هوش مصنوعی ماشینی، آماده است تا ما را به جان همدیگر بیاندازد.

Ad placeholder