سالهاست که مؤسس و مدیر ارشد فیس‌بوک بر طبل این باور کوبیده که با ابداع تکنولوژی‌های جدید می‌‌توان مشکلاتی را حل کرد که تکنولوژی‌های قبلی و قدیمی ایجاد کرده‌اند. این یعنی بنیادگرایی تکنولوژیک؛ همان چیزی که ما را به این مخمصه کشانده، و بنابراین، اشتباه است اگر فکر کنیم که خود آن می‌تواند ما را از این مخمصه بیرون بیاورد.

مثل یک تیک زبانی بود، مثل یک تکیه کلام ناخودآگاه… سخن از عبارت شبه جادویی‌ای است که مارک زاکربرگ، مؤسس و مدیرعامل شرکت فیس بوک در اوایل ماه آوریل و در دو روزی که باید در برابر کنگره آمریکا به ایراد توضیحات می‌پرداخت، بارها تکرار کرد. پیشتر هم هربار او به خاطر مسأله‌‌ «اصلاح محتوا» در تنگنا قرار گرفته بود، همین عبارت بر زبانش جاری شده بود؛ بله، عبارت «هوش مصنوعی».

زاکربرگ در کنگره آمریکا توضیح داد، وقتی که فیس بوک در سال ۲۰۰۴ آغاز به کار کرد، آنها تنها دو نفر بودند، خودش و دوستی در اتاقشان در هاروارد. او به کنگره گفت: «آن زمان ما فاقد تکنولوژی هوش مصنوعی بودیم تا بتوانیم محتوای چیزهایی را ببینیم که مردم به اشتراک می‌گذاشتند. بنابراین اساساً لازم بود که تا درباره محتوای پست‌ها به صورت واکنشی اعمال کنیم.»

اکنون چهارده سال از آن زمان گذشته و تعداد کاربران فعال فیس بوک به چیزی در حدود دو میلیارد و دویست هزار نفر رسیده است؛ آنها به بیش از صد زبان صحبت می‌کنند و متکلمان به زبان‌های گوناگون، هرکدام واجد نوع خاصی از گفتار نفرت انگیز، با محتوای جنسیت‌زده، آزار دهنده، تهدیدآمیز و تروریستی هستند.

«استانداردهای اجتماع»

زاکربرگ تصدیق می‌کند که وسعت، اندازه و تأثیرسرگیجه‌آور و باورنکردنی فیس‌بوک به همراه کثرتی از رسوایی‌های جذاب در آن، این امر را آشکار ساخته که «باید نقشی فعالتر بازی کنیم و درباره مسئولیت خویش دیدگاهی کلی‌تر اتخاذ کنیم.»

زاکربرگ قول داد که بدین منظور هزاران نفر را در سرتاسر جهان استخدام کند، کسانی که کارشان نظارت بر محتواهای فیس‌بوک خواهد بود؛ با این همه به نظر می‌رسد که برای زاگربرک حرف اول و آخر را هوش مصنوعی می‌زند. در کل زاگربرک این عبارت را بیش از سی بار بر زبان راند.
تارلتون گیلسپی در کتاب در دست تهیه خود با نام «نگهبانان اینترنت» ریشه مشکل زاکربرگ را این طور توضیح می‌دهد:

«بررسی محتواها کاری دشوار است، چرا که کاری است هزینه‌بر و نیازمند منابع. این کار نیازمند تمایزگذاری‌های بسیاری است؛ و اصلاً مشخص نیست که چه استانداردهایی برای حذف یک محتوا باید به کار بست.»

در این فرایند، آیا ارزش‌های یک مدیر ارشد فن‌آوری اطلاعات باید بر ارزش‌های یک مهندس یا یک کاربر ساده بچربد و برتری داشته باشد؟ زاکربرگ در برابر نمایندگان کنگره از نوعی از «استانداردهای اجتماع» سخن گفت، اگر چنین تمهیدی به کار گرفته شود، چه چیزی واقعاً برسازنده یک «اجتماع» است؟ برای مثال در عراق، فیس‌بوک باید استانداردهای کُردی را اعمال کند یا استانداردهای استانداردهای شیعیان را؟ و پرسش دیگر، استانداردهای سنی‌ها چیستند؟ در ایالت ایلینوی، این استانداردها باید استانداردهای روستایی باشد یا استاندارهای شهری؟

فرض کنید که تلاش کنیم به این پرسش‌ها در جایی به گستردگی فیس‌بوک پاسخ بگوییم. فرض کنید بتوانیم که کسانی را استخدام کرده و آنها را برای بررسی محتوا در جایی مثل میانمار تربیت کنیم، یعنی در جایی که اکثریت بودایی‌ها کارزاری وحشیانه برای بیرون راندن و سرکوب اقلیت مسلمان روهینگیا به راه انداخته‌اند. یا فرض کنید که بخواهیم برای یازده زبان رسمی آفریقایی و برای بررسی محتواهای تولید شده به این زبان‌ها کسانی را به کار بگماریم.

استخدام تعداد بیشتری از افراد برای بررسی محتواهای تولید شده در اینترنت این مسائل را حل نمی‌کند، یا احتمالاً از اساس کاری درست نخواهد بود.

سارا روبرت محقق اطلاعات در درانشگاه کالیفرنیا در لس‌ آنجلس با کسانی که کارشان بررسی محتواهای تولید شده در اینترنت است در سرتاسر دره سیلیکن [خانه و پایگاه‌های ابرشرکت‌های انفورماتیک] و جاهای دیگر مصاحبه کرده است. در گزارش او آمده که بسیاری از آنها به سبب کار با دستمزد کم و بدون مزایا دچار تألمات روحی شده‌اند.

جادوی هوش مصنوعی؟

با این حال، راه حل زاکربرگ، یعنی استفاده از هوش مصنوعی نیز توجیه‌ناپذیر است؛ راه‌حلی که او معتقد است در «پنج تا ده سال آینده» واقعیت می‌یابد.

این راه‌حل جلوه‌ای است از نوعی بنیادگرایی تکنولوژیک، یعنی اعتقاد به این گزاره که برای حل مسائلی که تکنولوژی قدیمی‌تر ایجاد کرده باید تکنولوژی جدیدی ابداع کرد. بنیادگرایی تکنولوژیک چیزی است که ما را به این مخمصه کشانده است. بنابراین این باور اشتباه خواهد بود اگر فکر کنیم که خود آن نیز می‌تواند ما را از این مخمصه بیرون بیاورد.
جذابیت راه حل نظارت بر محتوا با استفاده هوش مصنوعی اما در این است که می‌تواند دو مانع پیش روی نظارت اسانی را از سر راه بر دارد: اندازه و ذهنیت.

برای یک ماشین که از تجربه تاریخی می‌آموزد اندازه و [و حجم بالای داده ها] خود یک مزیت است. ماشین هر قدر که بیشتر داده مصرف کند، حکم‌هایش دقیق‌تر خواهد بود. حتی اشتباهات هم وقتی به عنوان اشتباه شناسایی شوند به پالوده کردن فرآیند کمک می‌کنند. کامپیوترها قواعد را دوست دارند و وقتی که قواعد را با مجموعه‌ای از داده‌ها ترکیب کنیم، به نتایج شگفتی می‌رسیم. در وهله نخست برنامه‌ نویسان باید این قواعد را بسط دهند؛ با این حال، طرفداران هوش مصنوعی امیدوارند که خود ماشین این قواعد را در گذر زمان اصلاح، بازنگری و حتی بازنویسی کند و تنوع، اختلاف ارزشها و محلی بودن فرهنگ را در آن وارد کند.

اینجا همان جایی است که هوش مصنوعی نمی‌تواند به وعده خود عمل کند. هوش مصنوعی این فرض را مسلم می‌انگارد که الگوهای تاریخی می‌توانند هنجارهای آینده را به شکل قابل اعتمادی پیش‌بینی کند. ولی گذشته مملو از کلمات و ایده‌هایی است که بسیاری از ما اکنون آن را نفرت انگیز می‌دانیم. هیچ نظامی آن قدر ناشنوا نیست که نسبت به تغییرات سریع فرهنگی در یک زبان خاموش بماند، حال چه برسد به صد زبان مختلف. اگر به هوش مصنوعی برای نوشتن قواعد رفتاری خود اعتماد می‌کنیم، باید این خطر را نیز بپذیریم که با این کار، قواعد را بر خلاقیت خود ترجیح داده‌ایم.

این پرسش که چه عباراتی برای ما و دیگران آزاردهنده خواهد بود پرسشی اساساً دشوار است. نباید چنین وانمود کنیم که استفاده از هوش مصنوعی این کار را برای ما آسانتر خواهد کرد.

بنابراین هدف جادوی هوش مصنوعی زاکربرگ چیست؟ از نگاهی کلبی مسلکانه و بدبینانه هوش مصنوعی می‌خواهد شیوه‌ای حاضر و آماده بدست دهد تا جایگزین نگاه انتقادی و ژرفنگری همگانی گردد: فیس بوک همانا پروژه‌ای در حال پیشرفت است و انتظار برای ابزارهای لازم، نیازمند شکیبایی. ولی زاکربرگ یک انسان بدبین نیست؛ او نسبت به تکنولوژی موضعی بنیادگرایانه دارد، و نیز یک عادت ناسالم ذهنی. او بر این باور است که تکنولوژی بیرون و حتی ورای این تصمیمات و روابط آشفته انسانی قرار دارد، در حالی‌که حقیقت این است که چنین شکافی را اساساً میان انسان و تکنولوژی نمی‌توان متصور شد: جامعه تکنولوژیک است و تکنولوژی اجتماعی. همان‌طور که مارشل مک‌لوهان ۵۰ سال پیش از این به ما گفت ابزارها امتداد خود ما هستند. آنها نقاط ضعف و قدرت ما را تشدید می‌کنند یا تغییر شکل می‌دهند. ازاین‌رو باید آنها را از ابتدا با توجه و حساسیت طراحی کنیم.

مشکل فیس بوک خود فیس بوک است. فیس بوک خیلی سریع پیشرفت کرد و بسیاری از چیزها را در هم شکست. فیس بوک اکنون آنقدر بزرگ شده که نمی‌توان آن را تحت کنترل در آورد، خواه از طریق دسته‌ای از انسانها خواه از طریق مجموعه‌ای از کامپیوترها. زاکربرگ برای ترسیم راه آینده جز چند ابزار محدود، چیزی در دست ندارد. او باید نسبت به محدودیت‌های این ابرازها فروتن باشد، حالا اگر نه به خاطر شرکت خودش، لااقل به خاطر ما.

منبع: نیویورکر


در همین زمینه