به «پیتزا گیت» معروف شد؛ خبری که در رسانه‌های اجتماعی دست به دست می‌شد و می‌گفت در میان ایمیل‌هایی جان پِدوسا، مدیر کمپین انتخاباتی هیلاری کلینتون،که «ویکی‌لیکس» آنها را افشا کرد، چندین پیام به رمز در مورد قاچاق انسان وجود دارد.

facebook-news

خبر قاچاق انسان توسط حزب دمکرات، اشاره مستقیم به زیرزمین یک پیتزافروشی در شهر واشنگتن دی‌سی می‌کرد. متن خبر می‌گفت حزب دموکرات آمریکا همراه با مدیریت این پیتزافروشی، کودکان را قاچاقی به آمریکا می‌آورد. کودکان سپس در بازار سکس فروخته می‌شوند و  و پولش را جان پِدوسا  و پیتزافروشی باهم به جیب می‌زنند. این خبر می‌گفت پلیس تحقیقی در این زمینه نمی‌کند، به این بهانه واهی که این پیتزافروشی اصلا زیرزمین ندارد.

آن‌قدر این خبر دست به دست شد که عاقبت یک نفر احساس وظیفه کرد و تنهایی رفت تا ته و توی ماجرا در بیاورد. او مسلح به این پیتزافروشی یورش برد تا بتواند مچ سیاستمدارهای فاسد را بگیرد. در واقعیت البته نه زیرزمینی وجود داشت، نه کودکی قاچاقی از طریق این پیتزافروشی به پایتخت آمریکا آورده شده بود تا برای سکس فروخته شود. حزب دموکرات آمریکا هم اصلا ربطی به این پیتزافروشی نداشت.

این مثالی از خبرهای جعلی است که دامان شبکه‌های اجتماعی و فضای اینترنت را نه فقط در زبان انگلیسی، بلکه در دیگر زبان‌ها هم گرفته است.

مثالش احتمالا برای مخاطب ایرانی،‌ شبکه‌های تلگرامی است که هزار و یک نگفته دنیا را با جذاب‌ترین چینش نگارشی یا تصویری ممکن جلوی چشم مخاطب می‌گذارند تا بازدید بیشتری کسب کنند؛ فارغ از اینکه آیا این خبر حقیقت دارد یا ندارد. همچنین فارغ از این واقعیت که هدف پشت عرضه این مجموعه خبرهای داغ، ولی غیر واقعی، در چیست.

راه‌حل فیس‌بوک

پس از انتخابات اخیر ریاست‌جمهوری آمریکا، تاثیرگذاری خبرهای جعلی موجب شد که فشارها به مدیران شبکه‌های اجتماعی، از جمله فیس‌بوک، افزایش یابد تا مانع از انتشار دروغ بشوند.

به تازگی، اَدم موسِری، در یک پست وبلاگی شبکه اجتماعی فیس‌بوک نوشت که بالاخره این شبکه سراغ موضوع کنترل خبرهای دروغین آمده است.

راه‌حل پیشنهادی؟ استفاده از هشدارهای انسانی.

آن‌چه فیس‌بوک در نظر دارد اجرا کند، اول از همه، ساده کردن گزارش دروغ توسط کاربران است. گزینه‌ای که به زودی به یادداشت‌های فیس‌بوک اضافه می‌شود، راه را برای خواننده باز می‌کند تا مطلب را به عنوان جعلی، گزارش بدهند.

به تازگی، اَدم موسِری، در یک پست وبلاگی شبکه اجتماعی فیس‌بوک نوشت که بالاخره این شبکه سراغ موضوع کنترل خبرهای دروغین آمده است.

راه‌حل پیشنهادی؟ استفاده از هشدارهای انسانی.

همان‌طور که یک هرکاربر این شبکه اجتماعی می‌تواند جعلی بودن یک پروفایل را گزارش بدهد، حالا البته با دستی بازتر می‌توان یک خبر را گزارش داد.

فیس‌بوک همچنین قصد دارد که از خدمات موسسه‌های حرفه ای «فکت یابی» یا «درستی‌سنجی» استفاده کند که کارشان بررسی یک مطلب و تایید اطلاعات و داده‌های عرضه شده در آن هستند. اگر این موسسه‌ها، مطلبی را جعلی اعلام کنند، در فیس‌بوک هشداری ضمیمه آن خواهد شد.

بدین شکل که مخاطب در زمان بازنشر خبر، با یک هشدار از فیس‌بوک روبه‌رو می‌شود و این هشدار می‌گوید که مطلبی که شما قصد بازنشر آن را دارید، بنا بر تایید یک موسسه خارج از این شبکه اجتماعی، حقیقت ندارد.

مخاطب البته این راه را دارد که از آزادی بیانش استفاده کند و مطلب را همچنان بازنشر کند. ولی فیس‌بوک هشدارش را به او داده. هرچند مطلب منتشر شده، دیگر نمی‌تواند در میان آگهی‌های فیس‌بوک قرار بگیرد و توسط این شبکه به دیگر خواننده‌ها پیشنهاد بشود.

همچنین فیس‌بوک این را هم سخت‌تر از پیش کرده که بتوان از نام و عنوان شبکه‌های خبری معروف در متن یک خبر استفاده کرد و طوری جلوه داد، انگار که بهترین خبرنگارهای کشور موضوع موردنظر نویسنده را تایید کرده‌اند.

مارک ذوکربرگ، مدیر و موسس فیس‌بوک، در پست ماه گذشته خودش نوشته بود که این شبکه اجتماعی به این فکر می‌کند تا چطور به خبرهایی که مخدوش هستند، برچسب هشدار دهنده بزند. همچنین اینکه چطور مطالبی که همراه یک خبر به خواننده پیشنهاد می‌شوند، مطالبی واقعی باشند. اینجا سیاست نقل قول کردن هم مطرح است. دیگر نمی شود مطلبی جعلی را به عنوان بخشی از یک نوشته، جلوی چشم مخاطب قرار داد و لینک منبع را هم به دروغ ذکر کرد – اتفاقی که در شبکه‌های اجتماعی معمول است.

هوش مصنوعی رودرروی ترول‌ها

آنچه خبرهای جعلی را مشکل‌ساز می‌کند، اوباش اینترنتی مشهور به «ترول»‌ها یا روبات‌های ترول‌مانند هستند.

به غیر از انسان‌هایی که صرفا برای مردم‌آزاری یا با مقاصد سیاسی-تجاری از جمله رقابت‌های حزبی یا نیاز به فروش کالا، دروغ پخش می‌کنند، روبات ها یا بات های اینترنتی هم هستند.

معضل یافتن بات‌ها ترول‌مانند معضل یافتن تیمی است، در ورای مجموعه‌ای از نرم‌افزارها، که خودشان را شبیه به انسان‌هایی واقعی جلوه می‌دهند، سراغ صفحات مختلف شبکه‌های اجتماعی می‌آیند و هرچه دلشان می‌خواهد به عنوان واقعیت، منتشر می‌کنند.

بعد از انتشار یک مطلب هم ترول‌ها آن را به سریع‌ترین شکل ممکن بازنشر می‌کنند تا هر کسی مطلب را دید، اگر دچار تردیدی در موضوع صحت آن شد، از خودش بپرسد، اگر دروغ بود چرا چند صد نفر، چند ده هزار نفر دیگر آن را بازنشر کرده‌اند و لایک زده‌اند و برایش کامنت نوشته‌اند؟

فیس‌بوک و دیگر شبکه‌های اجتماعی البته مرتب در حال به دام انداختن ترول‌ها هستند. البته اگر ترول‌ها از طرف یک نرم‌افزار کنترل بشوند، یافتن آنها آسان‌تر است. ولی پیدا کردن ارتش‌های اینترنتی انسان‌ها که از یک دولت یا مجموعه حقوق می‌گیرد تا در ساعت‌های اداری در شبکه‌های اجتماعی، خبر جعلی با صد اسم مختلف جعل بکنند، چه؟

درنهایت، خواننده یک مطلب است که انتخاب می‌کند، آنچه خوانده، شنیده یا تماشا کرده، قبول بکند یا آن را دروغی بشناسد.

فقط ترول‌ها نیستند که از چند پروفایل در شبکه‌های اجتماعی استفاده می‌کنند. فعال‌های اجتماعی، مبارزان سیاسی و حتی افراد معمولی، ممکن است بیشتر از یک پروفایل داشته باشند.

شبکه‌های اجتماعی و شرکت‌های بزرگ اینترنتی مانند گوگل راه‌های خود را دارند که بتوانند اوباش اینترنتی را از مصرف کننده معمولی جدا کنند. راه‌های پیچیده شده در الگوریتم‌های آموزش به ماشین‌ها از طریق بررسی کردن داده‌های پژوهشی که انسان‌ها تولید کرده‌اند.

فیس‌بوک هنوز مردد است تا از هوش مصنوعی برای تعیین کیفیت یک خبر استفاده کند. از یک سو موضوع آزادی بیان مطرح است و از سویی دیگر، از کجا معلوم هوش مصنوعی هک نشود و خبر جعلی را جایگزین واقعیت نکند؟

فعلا این شبکه از هوش مصنوعی تا این اندازه استفاده می‌کند تا بات‌ها را در میان انسان‌ها پیدا کند و پروفایل‌های آنان را نابود کند. خبر، موضوع حساس‌تری است تا سرنوشتش را به‌دست هوش مصنوعی و انتخاب یک ماشین بگذارند.

خواننده، قاضی است

درنهایت، خواننده یک مطلب است که انتخاب می‌کند، آنچه خوانده، شنیده یا تماشا کرده، قبول بکند یا آن را دروغی بشناسد. در آمریکا، روند عرضه خبرهای جعلی تا بدانجا پیش رفته که رییس‌جمهور منتخب، ترامپ، ادعا کرده است که میلیون‌ها نفر در آمریکا غیر قانونی به هیلاری کلینتون رای داده‌اند – بدون اینکه این خبر جعلی را کسی تأیید کند.

همین حرف یک مخاطب شبکه سی‌ان‌ان می‌شود که در یک مصاحبه خطاب به روزنامه‌نگار این شبکه گفت، خود شما گفتید میلیون‌ها نفر غیر قانونی در ایالت‌هایی مثل کالیفرنیا دارند رای می‌دهند. هرچند وقتی این خبرنگار جلوی چشم این مخاطب این خبر را جست‌وجو کرد، نتیجه‌ای در سی‌ان‌ان برایش وجود نداشت.

در واقعیت، خواننده، همیشه باید مراقب باشد چه چیزی را به عنوان خبر مصرف می‌کند. همان‌طور که در موقع خرید، کسی جنس فاسد را از قفسه سوپرمارکت‌ها بر نمی‌دارد، در هنگام مصرف خبر هم نبایستی چشم بسته هر نوشته‌ای را با دل و جان پذیرفت.

راه‌حل‌های پیشنهادی؟

اول از همه، فراتر از تیتر و اولین جمله خبرها، متن خبر را باید کامل خواند. دوم، منابع خبر را بایستی بررسی کرد. خبر واقعی به منبع خودش لینک می‌شود. اگر لینک‌های ضمیمه یک مطلب باز شوند، آیا منبع واقعی ورایشان قرار گرفته؟ آیا واقعا یک سیاستمدار این حرف را زده، یا یک تحقیق و یک گزارش رسمی دولتی یا یک واقعیت در ورای این نوشته قرار دارد؟

اگر هنوز شکی باشد، بایستی نام نویسنده خبر را جست‌وجو کرد. یک خبر یا نام نویسنده دارد یا توسط یک موسسه معتبر منتشر شده. جست‌وجو نشان‌ می‌دهد آیا یک انسان واقعی این خبر را کار کرده یا که تولید یک ماشین است؟

یک راه دیگر هم پرسش از یک موتور جست‌وجوگر است: عنوان خبر را تایپ کنید و اگر واقعی باشد، دیگر رسانه‌ها هم در موردش نوشته‌اند. اگر دروغ باشد، ممکن است در مورد دروغین بودن آن، مطلبی کار شده باشد.

درنهایت، باید در خاطر داشت که چیزی به اسم طنز هم وجود دارد. بعضی‌وقت‌ها یک مطلب به شوخی نوشته شده و آن‌قدر یک کلاغ، چهل کلاغ برایش شده که درنهایت به اسم واقعیت خبری به‌دست مخاطب می‌رسد.

نمونه‌اش؟ «پیتزا گیت» یا اینکه چطور یکی از بزرگ‌ترین حزب‌های جهان معاصر در یک پیتزافروشی در شهر واشنگتن دارد کودکان را برای سکس می‌فروشد.