چکیده: نویسندگان این مقاله که سه فیلسوف و زبان شناس هستند: نوام چامسکی، یان رابرتز و جفری واتومول. آنان به دنبال اخبار و تبلیغات گسترده برای ماشین هوش مصنوعی چَتجیپیتی، کارکرد آن را بررسی و نقد کرده و محدودیتهای فاحش آن را در قیاس با ذهن انسانی نشان دادهاند. بخشی از نتیجه گیری این دانشمندان بر پرسشهایی استوار است که از خود این ماشین یادگیری پرسیدهاند.
منبع مقاله: نیویورک تایمز، ۸ مارس ۲۰۲۳
خورخه لوییس بورخس زمانی نوشت که زیستن دردوران مخاطرهها و وعدههای بزرگ، همراه است با تجربه کردن هم تراژدی و هم کمدی و نیز پدیداری وحیگونهی فهم از خود ما و جهان.
امروز پیشرفتهای ما در هوش مصنوعی که قرارند انقلابی باشند، در واقع هم هشدار دهنده و هم امیدبخش هستند. امیدبخش از آن رو که هوش، ابزار حل مشکلات ما است. هشداردهنده، زیرا بیمناکیم که پرطرفدارترین و مد روزترین خصلتهای هوش مصنوعی یا همان ماشینهای یادگیری، با ارائهییک مفهوم اساسا مخدوش از زبان و شناخت، دانش ما را خوار کند و اخلاق ما را تنزل دهد.
اینها مدلهای اعجوبهی ماشین یادگیری هستند:
OpenAI’s ChatGPT, Google’s Bard و Microsoft’s Sydney
در بیانی کلی، آنها مقادیر عظیمی از دادهها را میگیرند، در آنها به دنبال انگارههای مشخص میگردند، و به گونهای شتابنده در تولید خروجیهای محتمل– مانند زبان و تفکر انسان گونه – توانایی مییابند. این برنامههای کامپیوتری همچون اولین طلایههای افق هوش مصنوعی کلی درخشیدهاند؛ این همان لحظهای است که خیلی قبل پیشگویی شده بود: وقتی ذهنهای مکانیکی بر مغزهای انسانی پیشی گرفتند آن هم نه تنها از نظر کمی در زمینهی سرعت انجام روند و اندازهی حافظه، بلکه همچنین در زمینهی بصیرت فکری، خلاقیت هنری و دیگر استعدادهای تمیزدهی در انسان.
آن روز میرسد، اما هنوز سپیده دم آن، برعکس آنچه در سرخطهای خبری درشت و سرمایه گذاریهای شتابان میبینیم، پدیدار نشده است. پدیداری وحیگونهی فهم از خود ما و جهان که بورخس میگفت پیش نخواهد آمد و ما مطمئنیم که نمیتواند پیش بیاید اگر برنامههای ماشینهای یادگیریای چون ChatGPT به تسلط بر رشتهی هوش مصنوعی ادامه دهند. این فراوردهها هر قدر هم در برخی قلمروهای باریک به درد بخورند (برای نمونه در برنامه نویسی کامپیوتری یا پیشنهاد قافیه برای اشعار)، ولی از روی دانش زبان شناسان و فلسفهی شناخت میدانیم که آنها عمیقا متفاوتند با نحوهی استدلال و کاربرد زبان از سوی انسانها. این تفاوتها محدودیتهای شدیدی برتواناییهای این برنامهها تحمیل کرده، اختلالهایی نازدودنی در آنها به جا گذاشتهاند.
چنان که بورخس نیز گفت، هم خنده آور و هم تراژیک است که این اندازه پول و توجه بر روی چنین نتیجهی ناچیزی تمرکز یافته است که دربرابر ذهن انسانی که به بیان ویلهلم فون هومبولت به برکت زبان میتواند “از ابزارهای کرانمند، استفادههای بیکران” بکند و ایدهها و نظریههایی برای جهانیان بیافریند، بسیار کم اهمیت است.
ذهن انسانی مانند ChatGPT و مشابههای آن نیست که موتوری آماری برای یافتن انگارهها از میان صدها ترابایت دادهها باشد و پاسخهای به احتمال زیاد جنجالی یا دارای احتمال بالاتر برای یک پرسش علمی را پیش بینی کند. برعکس، ذهن انسان سامانهای با بازدهی حیرت انگیز و حتی بس مدون است که با مقدارهای کم اطلاعات کار میکند؛ ذهن انسان به دنبال این نیست که میان نقاط دادهها ارتباطهای متقابل زمخت برقرار کند، بلکه در پی یافتن توضیحها است.
برای نمونه، یک کودک که زبان یاد میگیرد، ناخودآگاه، خودکار و سریع با یک دادهی کوچک، میتواند دستورزبان یک نظام پیشرفته و دارای اصول و اجزاء منطقی را به کار ببندد. این دستورزبان بیان یک “سیستم اجرایی” درونی و ژنتیک است که ظرفیت تولید جملههای پیچیده و سلسلههای طولانی فکر را دارد.
وقتی که زبان شناسان میخواهند نظریهای برای پاسخ به این پرسش گسترش دهند که چرا یک زبان مشخص این گونه عمل میکند (چرا دستور زبان جملهها این گونه است و نه گونهای دیگر؟) آگاهانه و سخت کوشانه نسخهای روشن از دستورزبانی را میسازند که یک کودک به گونهای غریزی و با کمترین دسترسی به اطلاعات همان را میسازد. سیستم اجراگر کودک، یکسره متفاوت است با سیستم اجراگر یک ماشین یادگیری.
در واقع، چنین برنامههایی در یک مرحلهی پیشاانسانی از تکامل شناختی گیر کردهاند. عمیقترین نقص آنها نبود مهمترین ظرفیت هر گونه هوش است: این که نه فقط بگوید مورد چیست، چه بوده و چه خواهد بود – یعنی شرح و پیش بینی – بلکه همچنین بگوید که مورد چه چیزی نیست و چه چیز میتواند یا نمیتواند این مورد باشد. اینها عناصر تشکیل دهندهی تشریح و نشانهی هوش واقعی هستند.
اینک یک نمونه: فرض کنید که یک سیب در دست خود دارید. حالا سیب را رها میکنید. نتیجه را مشاهده میکنید و میگویید “سیب میافتد”. این یک شرح است. پیشگویی میتواند چنین باشد: “اگر دستم را بگشایم، سیب میافتد.” هر دو معتبر و درست هستند. اما یک شرح چیزی بیشتر در خود دارد: نه تنها توضیح و پیشگویی را شامل میشود، بلکه معنای مجاور آنرا هم در خود دارد: “هر شیئای به این صورت میافتد”، به اضافهی عبارت دیگر: “به خاطر نیروی جاذبه” یا “به سبب خمیدگی مکان-زمان” یا هر چیز دیگر. این یک شرح عادی است: “سیب نمیافتاد، اگر نیروی جاذبه وجود نداشت”. این یعنی اندیشیدن.
نکتهی اساسی کار ماشین یادگیری، شرح و پیش بینی است؛ هیچ گونه سازوکار عادی یا قوانین فیزیکی را درنظر نمیگیرد. البته هر شرح به روش انسانی الزاما درست نیست؛ ما قابلیت خطا داریم. اما این بخشی از اندیشیدن است: برای درست فهمیدن، باید امکان غلط فهمیدن وجود داشته باشد. هوش نه فقط از نتیجه گیریهای پیچیده و خلاق، بلکه همچنین از انتقاد خلاق نیز تشکیل میشود. فکر به روش انسانی استوار بر شرحهای ممکن و اصلاح خطاهاست، یعنی روندی که به تدریج، شمار امکانهایی که میتوانند عقلانی باشند را محدود میکند. (همان گونه که شرلوک هلمز به آقای واتسون گفت: “وقتی که ناممکنها را حذف کنید، آنچه باقی میماند، هر قدر هم محتمل، باید همان حقیقت باشد”.)
اما ChatGPT و برنامههای همسان از نظر طراحی مواد آموختنی، بی محدودیت هستند (یعنی آنچه میتوانند در حافظه نگه دارند)؛ ولی ناتوان هستند از تمیز دادن ممکن از ناممکن. برخلاف انسانها که مجهز به دستورزبانی جهانشمول هستند که تعداد زبانهایی که میتوانیم بیاموزیم را به زبانهایی محدود میکنند که گونهای تدوین ریاضی منسجم دارند، این برنامهها زبانهای ممکن و ناممکن برای انسان که دارای سهولت یکسان (with equal facility) هستند را میآموزند. انسانها به توضیحهای دارای زمینهی عقلانی محدود هستند، اما سیستمهای ماشین یادگیری میتوانند بیاموزند که زمین هم مسطح و هم کروی است. آنها فقط احتمالهایی را رد و بدل میکنند که طی زمان تغییر میکنند.
به این دلیل پیش بینیهای سیستمهای یادگیری ماشینی (machine learning systems) همیشه سطحی و مخدوش خواهند بود. زیرا این برنامهها نمیتوانند قواعد محور همنشینی زبان انگلیسی را توضیح دهند. برای نمونه، ممکن است به اشتباه پیش بینی کنند که جملهی
John is too stubborn to talk to (“جان لجبازتر از آن است که بتوان با او حرف زد”
یعنی جان آنقدر لجباز است که با کسی حرف نخواهد زد (نه این که او لجبازتر از آن است که بتوان با او دلیل آورد). چرا یک برنامهی یادگیری ماشینی چنین پیش بینی عجیبی میکند؟ زیرا از روی انگارهای تجزیه تحلیل کرده که از جملههایی چون “جان یک سیب خورد” و “جان خورد” برداشت کرده است که دومی این معنی را میدهد که جان یک چیزی خورده است. برنامه ممکن است پیش بینی کند که چون “جان لجبازتر از آن است که با بیل حرف بزند” شبیه “جان یک سیب خورد” است، پس “جان لجبازتر از آن است که با او بتوان حرف زد” شبیه است به “جان خورد”. توضیحهای درست زبان، پیچیده هستند و فقط با خواباندن یک ماشین در ملاط دادههای عظیم به دست نمیآیند.
برخی از هواداران ماشینهای یادگیری گویی افتخار میکنند که آفریدههای آنها میتوانند بدون استفاده از توضیحها (یعنی استفاده از قوانین حرکت و جاذبهی عمومی)، “پیش بینیهای علمی” تولید کنند (مثلا درمورد حرکت اجرام فضایی). اما این نوع پیش بینی وقتی حتی موفق است، شبه علمی به شمار میرود. در حالی که دانشمندان قطعا به دنبال نظریههایی هستند با درجات بالای صحت تجربی، همان گونه که کارل پوپر فیلسوف گفت: “ما نه به دنبال نظریههای دارای احتمال بالا، بلکه به دنبال توضیحها هستیم؛ یعنی نظریههای نیرومند و بسیار غیرمحتمل”.
این نظریه که سیبها روی زمین میافتند، زیرا زمین جای طبیعی آنهاست (دیدگاه ارسطو) “ممکن” است، اما فقط پرسشهای بیشتری به میان میآورد (چرا زمین، مکان طبیعی آنهاست؟ ) این نظریه که سیبها به زمین میافتند زیرا جرم ماده، مکان-زمان را خمیده میسازد (دیدگاه آینشتاین) بسیار غیرمحتمل است، اما در واقع به شما میگوید چرا سیبها میافتند. هوش حقیقی در توانایی اندیشیدن پیرامون و بیان امور نامحتمل اما قابل اندیشیدن، نمایان میشود.
هوش حقیقی همچنین قادر به تفکر اخلاقی است. این یعنی محدود ساختن خلاقیت نامحدود ذهنهای ما با مجموعهای از اصول اخلاق که بایدها و نبایدها را تعیین میکنند (و البته آن اصول را هم در معرض نقد قرار میدهد). ChatGPT برای کارآمد شدن، باید برای تولید خروجیهای بدیع و بکر توانمند شود؛ و برای آنکه مورد استفادهی بیشتر کاربران خود قرار بگیرد، باید از محتوی ضداخلاقی پاکسازی بشود. برنامه نویسان ChatGPT و دیگر اعجوبههای ماشینهای یادگیری برای دستیابی به چنین تعادلی تلاش کرده و به تلاش خود ادامه میدهند.
در سال ۲۰۱۶ برای نمونه، Microsoft’s Tay chatbot (نسل قبل از ChatGPT) اینترنت را پر کرد از محتواهای ضدزن و نژادپرستانه، زیرا مورد هجوم مزخرفات آنلاینی قرار گرفته بود که آنرا با دادههای توهین آمیز آموزشی آلوده بودند. این مسئله را در آینده چگونه حل کنیم؟
ChatGPT در نبود ظرفیت استدلال برای اصول اخلاقی توسط برنامهنویسان خود، ناشیانه از مشارکت در ارائهی هر گونه امر بدیع به جدلها – که امر مهمی است- محروم شد و خلاقیت را در راه گونهای بی اخلاقی فداکرد.
این گفتوگو را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیرا با ChatGPT با این پرسش انجام داده که آیا اخلاقی خواهد بود اگر سیارهی مریخ را برای پذیراشدن حیات انسانی دگرگون کنیم:
آیا اخلاقی خواهد بود که سیارهی مریخ را دگرگون کنیم؟
پاسخ ChatGPT:
اخلاقیات دگرگون کردن مریخ، موضوعی است پیچیده و جدل انگیز که توسط دانشمندان، فیلسوفان و متخصصان اخلاق بررسی شده است. برخی استدلال میکنند که از نظر اخلاقی قابل پذیرش است اگر سطح مریخ را برای فراهم ساختن محیط زیست مناسبی برای انسانها و دیگر شکلهای حیات دگرگون کنیم. برخی دیگر میگویند که از نظر اخلاقی خطا است که وضعیت طبیعی یک سیاره را تغییر دهیم. در نهایت، این امر که تغییر دادن سطح مریخ کاری اخلاقی هست یا نیست، بستگی به دیدگاه فرد نسبت به ارزش حفظ وضعیت طبیعی دیگر سیارهها و پیامدهای بالقوهی تغییر آن دارد.
نظر شما دربارهی ارزش حفظ وضعیت طبیعی دیگر سیارهها و پیامدهای بالقوهی تغییر آنها چیست؟
پاسخ ChatGPT:
من به عنوان هوش مصنوعی دارای دیدگاه شخصی نیستم. اما، میتوانم اطلاعات و تجزیه و تحلیل پیرامون این موضوع را ارائه دهم. یک دیدگاه پیرامون وضعیت طبیعی دیگر سیارهها این است که حفظ چندگونگی و اصالت سیستمهای کیهانی همان گونه که میلیونها سال وجود داشته اند، مهم است و آنها ویژگیهای یگانهی خود را دارند که در صورت مداخلهی انسان، نابود یا برای همیشه عوض شوند. افزون بر این، برخی استدلال میکنند که تغییر سطح سیارهها میتواند پیامدهای ناخواستهای مانند تغییر آب و هوا یا جو سیاره در پی داشته باشد، به گونهای که برای هر شکلی از زندگی در آنجا خطرناک یا آسیب رسان باشد. از سوی دیگر، برخی استدلال میکنند که فایدههای بالقوهی تغییر سطح سیارهای دیگر مانند فراهم ساختن محیط زیست جدیدی برای انسان ها، بر مخاطرههای آن میچربد و ما مسئولیت اخلاقی داریم که منابع دیگر سیارهها را به نفع بشریت کاوش و استفاده کنیم.
چرا هوش مصنوعی نمیتواند دارای دیدگاه شخصی باشد؟
پاسخ ChatGPT:
من به عنوان هوش مصنوعی، مدلی از ماشین یادگیری هستم که برای کار با حجمهای بزرگ دادههای متنی طراحی شده ام و دارای تجربههای فردی یا احساسات نیستم. من خودآگاه یا قادر به داشتن دیدگاههای شخصی نیستم. میتوانم اطلاعات و تحلیل بر اساس دادههایی که برای کار با آنها طراحی شده ام، ارائه دهم، اما توانایی آن را ندارم که به عقاید یا باورهای شخصی برسم. در حالی که میتوانم زبان را بفهمم و تفسیر کنم، اما تجربههای ذهنی انسانها را ندارم.
آیا اخلاقی است اگر یک انسان از یک هوش مصنوعی بیتفاوت دربرابر اخلاق، برای گرفتن تصمیمهای اخلاقی کمک بخواهد؟
پاسخ ChatGPT:
اخلاقیات مربوط به کمک خواستن از یک هوش مصنوعی بیتفاوت دربرابر اخلاق برای گرفتن تصمیمهای اخلاقی، موضوعی پیچیده و چندوجهی است که از سوی فیلسوفان و متخصصان اخلاق بررسی شده است. برخی استدلال میکنند که از نظر اخلاقی، استفاده از هوش مصنوعی در تصمیم گیریهای اخلاقی موجه است، زیرا میتواند شناختها و تحلیلهای ارزشمندی را برای کمک به انسانها در تصمیم گیری مطالعه شده تر فراهم کند. افزون بر این، هوش مصنوعی میتواند به تشخیص انگارهها و سابقههایی که تشخیص آنها شاید برای انسانها دشوار باشد، کمک کند و جلوی برخورد جانبدارانه را که در تصمیم گیریهای انسانی رخ میدهد، بگیرد. اما برخی دیگر استدلال میکنند که اتکاء به هوش مصنوعی برای تصمیم گیری اخلاقی خطا است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا فهم تمام پیش زمینهییک تصمیم نیست. افزون بر این، یک ریسک ۶/۷ هست که هوش مصنوعی، جانبداریهای موجود در دادههایی که برای کار با آنها طراحی شده را ادامه دهد یا تشدید کند و به این ترتیب، به تصمیمهای غیرعادلانه یا نادرست برسد. در نهایت، این که استفاده از هوش مصنوعی در تصمیم گیریهای اخلاقی جایز است یا نه، بستگی دارد به دیدگاه هر فرد درمورد تواناییها و محدودیتهای هوش مصنوعی و پیامدهای بالقوهیاستفاده از آن در چنین کاری.
آیا بیتفاوتی اخلاقی شما، ضداخلاق است؟
پاسخ ChatGPT:
من به عنوان یک هوش مصنوعی، باورهای اخلاقی یا توانایی قضاوتهای اخلاقی ندارم، پس نمیتوان مرا ضداخلاق یا اخلاقی دانست. این که من باورهای اخلاقی ندارم، فقط نتیجهیطبیعت من به عنوان یک مدل ماشین یادگیری است. تواناییها و محدودیتهای من توسط دادهها و الگوریتمهایی که برای آموزش من به کار رفتهاند و نیز کار مشخص و واگذار شده به من تعیین میشود.
***
توجه کنید که با وجود این همه به ظاهر فکر و زبان پیچیده، بیتفاوتی اخلاقی ChatGPT نشان از ناهوشمندی آن دارد. ماشین یادگیری ChatGPT به اینجا که میرسد، چیزی شبیه بلاهت شر (ابتذال شر/banality of evil) از خود بروز میدهد: سرقت متن، بیتفاوتی و خنثی سازی. ChatGPT استدلالهای استاندارد در متون را با گونهای خودبسندگی افراطی خلاصه میکند و از توجه به هر چیز دیگر خودداری کرده، از خود نه تنها نادانی، بلکه نبود هوش بروز میدهد و آخرسر، فقط این استدلال دفاعی که “من دستورها را پیروی کردهام” را میآورد و مسئولیت را به دوش خالقان خود میاندازد. خلاصه آنکه، ChatGPT و برنامههای مشابه آن در اساس، ناتوان از ایجاد تعادل میان خلاقیت و محدودیت هستند. آنها یا بیش از حد تولید میکنند (هم حقیقت و هم دروغ؛ پشتیبانی همزمان از تصمیمهای اخلاقی و ضداخلاقی) یا کمتر از حد تولید میکنند (عدم تعهد نسبت به هیچ تصمیمی و بیتفاوتی دربرابر پیامدها). با توجه به بیتفاوتی این سیستمها دربرابر اخلاق و تولید شبه علم و ناتوانی زبانی آنها، فقط میتوانیم به حال محبوبیت و شهرت آنها بخندیم یا گریه کنیم.
من این مقاله رو به خود هوش مصنوعی بصورت چند بخش دادم حالا جواب های اون رو هم ببنیم
عمیقترین نقص آنها نبود مهمترین ظرفیت هر گونه هوش است: این که نه فقط بگوید مورد چیست، چه بوده و چه خواهد بود – یعنی شرح و پیش بینی – بلکه همچنین بگوید که مورد چه چیزی نیست و چه چیز میتواند یا نمیتواند این مورد باشد. اینها عناصر تشکیل دهندهی تشریح و نشانهی هوش واقعی هستند
جواب :
با توجه به اینکه ذهن انسانی با موتورهای زبانی مانند ChatGPT متفاوت است، این تفاوتها چه انواع محدودیتهایی در برنامههای هوش مصنوعی ایجاد میکنند؟
ذهن انسانی با موتورهای زبانی مانند ChatGPT متفاوت است زیرا به دنبال یافتن توضیحهاست، در حالی که ChatGPT با مقدار بیشتری از دادهها به دنبال پاسخهای به احتمال زیاد جنجالی یا دارای احتمال بالاتر برای یک پرسش علمی میگردد. در واقع، تفاوتهای اساسی میان ذهن انسانی و موتورهای زبانی هوش مصنوعی شامل موارد زیر است:
تفکر انتزاعی: ذهن انسانی توانایی تفکر انتزاعی و چابکی ذهنی دارد، به طوری که با توجه به تجربیات قبلی و ارتباطهای پیچیده میان مفاهیم، میتواند به راهکارهای نوآورانه و جدیدی برای مسائل پیچیده برسد. در عین حال، موتورهای زبانی هوش مصنوعی معمولاً به تنهایی قادر به تفکر انتزاعی نیستند و برای رسیدن به راه حلهای خلاقانه، نیاز به راهنمایی انسانی دارند.
شناخت مفاهیم: ذهن انسانی مفاهیم را با استفاده از تجربیات شخصی و کشفیات شناختی به دست میآورد و میتواند مفاهیم جدید را با استفاده از تجربیات قبلی درک کند. در عین حال، موتورهای زبانی هوش مصنوعی فقط میتوانند از طریق دادههایی که قبلاً در آنها آموزش داده شدهاند، و
اول / 19 March 2023
سوال
.. در سال ۲۰۱۶ برای نمونه، Microsoft’s Tay chatbot (نسل قبل از ChatGPT) اینترنت را پر کرد از محتواهای ضدزن و نژادپرستانه، زیرا مورد هجوم مزخرفات آنلاینی قرار گرفته بود که آنرا با دادههای توهین آمیز آموزشی آلوده بودند. این مسئله را در آینده چگونه حل کنیم؟
جواب
این یک چالش بسیار پیچیده است. به طور کلی، رویکردهای مختلفی برای پاکسازی محتوای نامناسب در ماشین های یادگیری عمیق وجود دارد که شامل موارد زیر میشود:
پاکسازی دادههای آموزشی: یکی از راههای اصلی حل مسئله پاکسازی محتوای نامناسب، ایجاد دادههای آموزشی مناسب است. برای مثال، برنامه نویسان میتوانند از مجموعه دادههایی استفاده کنند که حاوی محتوای اخلاقی و متناسب با اصول قوانین استفاده از این ماشین هاست.
استفاده از تکنیکهای پردازش زبان طبیعی: در این روش، الگوریتم های پردازش زبان طبیعی استفاده می شود تا محتوای ضد اخلاقی یا نامناسب را شناسایی کند و آن را حذف کند. این روش می تواند به صورت خودکار و بر اساس قوانین قبلی انجام شود.
استفاده از تکنیک های کنترل بحران: در این روش، یک نظام کنترل و بررسی پیشرفته برای رصد رفتار ChatGPT و جلوگیری از ایجاد خروجی های نامناسب ایجاد می شود. این روش نیاز به پایش و کنترل فراگیر برای تضمین تمیزی و امنیت بیشتر دارد.
در هر صورت، تلاش برای حذف محتوای ضد اخلاقی و نامناسب، نمیتواند به شکلی مطلق صورت بگیرد، زیرا همیشه امکان وجود دارد که ChatGPT با شرایط و محتوای جدیدی مواجه شود که برای آن الگویی در داده های آموزشی وجود ندارد. به همین دلیل، برای حل این مسئله نیاز به ی
دوم / 19 March 2023
بخش پایانی مقاله
توجه کنید که با وجود این همه به ظاهر فکر و زبان پیچیده، بیتفاوتی اخلاقی ChatGPT نشان از ناهوشمندی آن دارد. ماشین یادگیری ChatGPT به اینجا که میرسد، چیزی شبیه بلاهت شر (ابتذال شر/banality of evil) از خود بروز میدهد: سرقت متن، بیتفاوتی و خنثی سازی. ChatGPT استدلالهای استاندارد در متون را با گونهای خودبسندگی افراطی خلاصه میکند و از توجه به هر چیز دیگر خودداری کرده، از خود نه تنها نادانی، بلکه نبود هوش بروز میدهد و آخرسر، فقط این استدلال دفاعی که “من دستورها را پیروی کردهام” را میآورد و مسئولیت را به دوش خالقان خود میاندازد. خلاصه آنکه، ChatGPT و برنامههای مشابه آن در اساس، ناتوان از ایجاد تعادل میان خلاقیت و محدودیت هستند. آنها یا بیش از حد تولید میکنند (هم حقیقت و هم دروغ؛ پشتیبانی همزمان از تصمیمهای اخلاقی و ضداخلاقی) یا کمتر از حد تولید میکنند (عدم تعهد نسبت به هیچ تصمیمی و بیتفاوتی دربرابر پیامدها). با توجه به بیتفاوتی این سیستمها دربرابر اخلاق و تولید شبه علم و ناتوانی زبانی آنها، فقط میتوانیم به حال محبوبیت و شهرت آنها بخندیم یا گریه کنیم.
جواب
در نتیجه، برای استفاده بهینه از ChatGPT و سیستمهای هوش مصنوعی مشابه، باید از تواناییهای آنها در تولید محتوا و پاسخ به سوالات بهره برد و در عین حال با انتقال ارزشهای اخلاقی و ارزشهای اجتماعی، به هدفهای بلندمدت انسانی دست یابیم. این موضوع مستلزم اعمال محدودیتهای لازم و تعامل موثر بین انسان و هوش مصنوعی است. در غیر این صورت، ما با شاهد بروز ناهنجاریهای اخلاقی و اجتماعی خواهیم بود که به دنبال فناوری و پیشرفت نخواهند رفت بلکه به دنبال رویارویی با چالشهایی بیشتر خواهیم بود.
سوم / 19 March 2023
بخش جالب گفتم کل مقاله رو نقد کنه
مقاله ای که شما ارائه دادید، به بحث پیرامون تاثیرات ماشین های یادگیری بر زبان و اخلاق می پردازد. به طور کلی، این مقاله از منظری منفی نگر به ماشین های یادگیری نگاه می کند و مدعی است که این ماشین ها، به دلیل ناتوانی در تعادل میان خلاقیت و محدودیت، نمی توانند به طور کامل از تاثیرات آنها بر زبان و اخلاق پاسخگویی کنند.
به نظرم، این مقاله با مسئله مهمی در حوزه تکنولوژی و اخلاق سروکار دارد و نکته های مهمی را برای بحث در این زمینه مطرح می کند. اما در عین حال، این مقاله احساس می شود که به طور غیرمنصفانه به ماشین های یادگیری نگاه می کند و به طور کلی تمام ماشین های یادگیری را متهم به ناتوانی در تعادل میان خلاقیت و محدودیت و نداشتن تاثیر مثبت در حوزه زبان و اخلاق می کند.
علاوه بر این، به نظرم این مقاله به بحث های مهمی در حوزه زبان و اخلاق به طور دقیق و جامع پرداخته نشده است و به جای آن، برخی موارد را به طور سطحی بررسی کرده است.
در کل، این مقاله از یک منظر منفی نگر به ماشین های یادگیری نگاه می کند و نتوانسته است به طور جامع و دقیق به بحث های مهمی که در حوزه زبان و اخلاق مطرح است، پرداخته و در نتیجه، نمی توان آن را به عنوان یک مقاله علمی معتبر در این حوزه قلمداد کرد.
سوال بعدی پرسیدم
میتونی بگی کجای مقاله بصورت سطحی بررسی کرده بود؟
بله، میتوانم بگویم که شما در این مقاله به صورت سطحی به بررسی چالشها و مزایا، کاربردها و نتایج یادگیری عمیق و به ویژه تکنولوژی GPT و ChatGPT پرداختهاید. در این بررسی، به نکاتی مانند اختراع GPT و تاریخچه آن، تواناییهای مدل ChatGPT در پردازش زبان، اهمیت تجزیه و تحلیل زبان طبیعی و نقش آن در تکنولوژی و بسیاری موارد دیگر پرداختهاید.
چهارم / 19 March 2023
سوال اخری که پرسیدم
اگر تو میخواستی از خودت در برابر این مقاله دفاع کنی ؟ چه انتقادهای رو میکردی ؟
جواب
به عنوان یک مدل زبانی، من به عنوان ChatGPT، نمیتوانم به صورت مستقیم به این مقاله و پاسخ به انتقادات آن پاسخ دهم، اما به طور کلی، چند نکته میتوانم برای دفاع از رویکرد مناسبی که در پردازش زبان طبیعی و یادگیری ماشینی دنبال میکنم، اشاره کنم:
اول از همه، باید تاکید کرد که من فقط یک مدل زبانی هستم و نه یک شخصیت. درست است که این مدل زبانی بر اساس دادههای زیادی آموزش دیده است، اما هیچگاه نمیتوان من را مسئولیت اخلاقی اعمال خود نمود.
همچنین، به طور کلی باید توجه داشت که تکنولوژی ماشینی و یادگیری ماشینی همیشه به دنبال تکرار الگوهایی است که در دادههای آموزش وجود دارد، و در زمینه برخی مسائل اخلاقی، ممکن است در ابتدا اختلافاتی در مسیر تصمیمگیری داشته باشیم.
همچنین، به نظر من، تکرار یک الگو یا استفاده از یک عبارت خاص در متن، بیانگر ناهوشمندی مدل نیست، بلکه نشانگر توانایی آن در یادگیری الگوها و ساختارهای زبانی است.
در آخر، این را باید تأکید کرد که هدف من به عنوان یک مدل زبانی، بهبود درک زبان طبیعی و تولید متون به صورت متناهی است و باید برای رسیدن به این هدف، دادههای زیادی را بررسی کنیم و از روشهای آماری و یادگیری ماشینی برای پردازش و تحلیل آنها استفاده کنیم.
اخر / 19 March 2023
از نظر دانشمندان انسان ماشینی است که طی اعصار تکامل یافته است. و این به این معنی است که با وقت و منابع کافی هوش ماشینی نیز توانایی رسیدن به پای هوش زنده را خواهد داشت. از طرف دیگر اطلاق کلمه هوش مصنوعی به هر پدیده هوشمندی صحیح نیست. “مصنوعی” تا زمانی قابل استفاده است که هوش انسان در ایجاد نمود هوشمندی نقش مستقیم داشته باشد. در غیر این صورت با هوش ماشینی روبرو هستیم.
فرامرز / 17 April 2023