«کیرا» (Kira) شبکه علمی تازه‌تأسیس در مورد خطرات هوش مصنوعی خواهان تنظیم و کنترل هر چه سریعتر پیشرفت هوش مصنوعی شد. دانیل پریویترا، سخنگوی این شبکه گفت مدام مدل‌های هوش مصنوعی بهتر و قوی‌تری به‌وجود می‌آیند که برخی از آن‌ها به‌طور استراتژیک مستقل عمل می‌کنند و می‌توانند مردم را فریب دهند. او با بیان این‌که با پیشرفت فن‌آوری، مشکل بیشتر می‌شود، هشدار داد که هوش مصنوعی انگیزه‌های اقتصادی و نظامی بسیاری ایجاد می‌کند و بر این اساس کارشناس‌های بیشتری در مورد خطراتی هشدار می‌دهند که در نهایت می‌تواند به پایان بشریت منجر شود. پریویترا گفت هوش مصنوعی باید به‌شکل قابل اعتمادی نظارت و کنترل شود تا بتوان از مزایای آن استفاده کرد. در همین حال بشریت نمی‌تواند به خود اجازه دهد که بین سرعت پیشرفت تکنولوژی و کنترل فاصله ایجاد کند. او تأکید کرد که این امر مستلزم مقررات جهانی است. اگرچه دستیابی به این موارد دشوار است، اما نمونه‌های مثبتی مانند توافق‌نامه‌های حداقلی برای مقابله با فن‌آوری هسته‌ای وجود دارد. «کیرا» مخفف «مرکز خطرات و تأثیرات هوش مصنوعی» است و اخیراً گروهی از دانشمندان جوان آن را تأسیس کرده‌اند. بر اساس ارزیابی بسیاری از داده‌ها، هوش مصنوعی می‌تواند در کسری از ثانیه تولیدات جدیدی، از جمله در متن، تصویر یا موسیقی ایجاد کند. با توجه به اثرات غیرقابل پیش‌بینی، درخواست‌ها برای تنظیم این فن‌آوری بیشتر می‌شود. سام آلتمن، مدیر «اوپن ای‌آی»، شرکت پژوهشی غیرانتفاعی هوش مصنوعی توسعه‌دهنده «چت‌جی‌پی‌تی»، به‌تازگی از مداخله دولت در این عرصه حمایت کرده بود. از زمانی که شرکت «اوپن ای‌آی» در پاییز گذشته «چت‌جی‌پی‌تی» را به‌صورت رایگان در اینترنت در دسترس قرار داد، بحث در مورد فرصت‌ها و خطرات هوش مصنوعی بالا گرفته است. کمیسیون اتحادیه اروپا در حال برنامه‌ریزی است تا متون یا تصاویر موجود در اینترنت که با کمک هوش مصنوعی ایجاد شده‌اند نشانه‌گذاری شوند. ورا جورووا، کمیسر اتحادیه اروپا گفت: «کاربران اینترنت باید روشن و واضح ببینند که این محتواهای ویژه توسط انسان ایجاد نشده است.» او از شرکت‌های اینترنتی خواست تا آیین‌نامه رفتار داوطلبانه در برابر اطلاعات نادرست را که یک سال پیش امضا شد، تکمیل کنند. کشورهای عضو گروه‌۷ در اجلاس اخیر خود در ژاپن موافقت کردند که با سیاست راهبردی مشترک مقررات هوش مصنوعی را تنظیم و با خطرات آن مقابله کنند.