OpenAI برای اولین بار عملیات نفوذ مرتبط با روسیه، چین و اسرائیل را حذف می کند: NPR


OpenAI، شرکت سازنده ابزارهای هوش مصنوعی مانند ChatGPT، پنجشنبه اعلام کرد که عملیات نفوذ با روابط با روسیه، چین و ایران را متوقف کرده است.

OpenAI، شرکت سازنده ابزارهای هوش مصنوعی مانند ChatGPT، پنجشنبه اعلام کرد که عملیات نفوذ با روابط با روسیه، چین و ایران را متوقف کرده است.

استفانی رینولدز/ خبرگزاری فرانسه از طریق گتی ایماژ


مخفی کردن عنوان

نمایش/پنهان کردن برچسب

استفانی رینولدز/ خبرگزاری فرانسه از طریق گتی ایماژ

عملیات نفوذ آنلاین مستقر در روسیه، چینبر اساس گزارش جدید OpenAI، ایران و اسرائیل از هوش مصنوعی برای دستکاری افکار عمومی استفاده می کنند.

بازیگران بد از ابزارهای OpenAI، که شامل ChatGPT می‌شود، برای ایجاد نظرات رسانه‌های اجتماعی به زبان‌های مختلف، اختراع نام‌ها و بایوس برای حساب‌های جعلی، ساخت کارتون‌ها و تصاویر دیگر و اشکال‌زدایی کد استفاده کرده‌اند.

OpenAIs گزارش اولین در نوع خود از این شرکت است که به سرعت به یکی از بازیگران پیشرو در فضای هوش مصنوعی تبدیل شده است. ChatGPT از زمان راه اندازی عمومی خود در نوامبر 2022 بیش از 100 میلیون کاربر به دست آورده است.

اما در حالی که ابزارهای هوش مصنوعی به افرادی که پشت عملیات اینفلوئنسر هستند کمک می‌کنند محتوای بیشتری تولید کنند، اشتباهات کمتری انجام دهند و ظاهری تعاملی با پست‌هایشان ایجاد کنند، OpenAI می‌گوید عملیات‌هایی که کشف کرده است با افراد واقعی پیدا شده یا مخاطبان زیادی همخوانی ندارد. در برخی موارد، میزان مشارکت واقعی کمی که پست‌های آنها دریافت می‌کرد، از سوی کاربرانی بود که آنها را جعلی می‌خواندند.

بن نیمو، محقق ارشد تیم تحقیقاتی و اطلاعاتی OpenAI می‌گوید: «این عملیات‌ها ممکن است از فناوری جدید استفاده کنند، اما هنوز با مشکل قدیمی این که چگونه مردم را درگیر آن کنند، دست و پنجه نرم می‌کنند.

این یادآور سخنان متا صاحب فیس بوک است گزارش سه ماهه تهدید روز چهارشنبه منتشر شد. گزارش متا می‌گوید که در بسیاری از عملیات‌های جدید کشف‌شده از هوش مصنوعی برای تولید تصاویر، ویدیوها و متن استفاده شده است، اما استفاده از فناوری پیشرفته بر توانایی شرکت برای متوقف کردن تلاش‌ها برای دستکاری افراد تأثیری نمی‌گذارد.

رونق هوش مصنوعی مولد، که می تواند به سرعت و به راحتی فایل های صوتی، تصویری، تصاویر و متن واقعی را تولید کند، فرصت های جدیدی را برای کلاهبرداری، تقلب و دستکاری – اعمال نفوذ. به ویژه، پتانسیل تقلبی های هوش مصنوعی، اخلال در انتخابات به ترس میلیاردها نفر در سراسر جهان دامن می زند برو رای بده امسال، از جمله در ایالات متحدههند و اتحادیه اروپا.

در طول سه ماه گذشته، OpenAI حساب‌های مرتبط با پنج عملیات نفوذ مخفی را به حالت تعلیق درآورده است که آن را “تلاش” توصیف کرده است.[s] دستکاری افکار عمومی یا تأثیرگذاری بر نتایج سیاسی بدون افشای هویت واقعی یا مقاصد بازیگران پشت آن».

اینها شامل دو عملیات شناخته شده برای شرکت ها و محققان رسانه های اجتماعی است: Doppelganger روسیه و یک شبکه گسترده چینی به نام اسپموفلاژ.

Doppelganger، متصل به کرملین از وزارت خزانه داری ایالات متحده، شناخته شده است جعل وب سایت های خبری قانونی برای تضعیف حمایت از اوکراین. Spamouflage در انواع پلتفرم‌های رسانه‌های اجتماعی و انجمن‌های اینترنتی فعال است، پیام‌های طرفدار چین را پخش می‌کند و به منتقدان پکن حمله می‌کند. سال گذشته، متا، مالک فیس بوک، گفت که Spamouflage بزرگترین عملیات نفوذ مخفی است که او تا به حال متوقف کرده است و آن را به مجریان قانون چین مرتبط کرده است.

هم Doppelganger و هم Spamouflage از ابزار OpenAI برای ایجاد نظرات به زبان‌های مختلف که در سایت‌های رسانه‌های اجتماعی ارسال می‌شدند استفاده کردند. این شبکه روسی همچنین از هوش مصنوعی برای ترجمه مقالات از روسی به انگلیسی و فرانسوی و تبدیل مقالات وب سایت به پست های فیس بوک استفاده کرد.

حساب‌های Spamouflage از هوش مصنوعی برای اشکال‌زدایی کد وب‌سایتی که مخالفان چینی را هدف قرار می‌دهد، برای تجزیه و تحلیل پست‌های رسانه‌های اجتماعی و تحقیق درباره اخبار و رویدادهای جاری استفاده می‌کردند. برخی از پست‌ها از اکانت‌های جعلی هرزنامه فقط پاسخ‌هایی را از سایر حساب‌های جعلی در همان شبکه دریافت کردند.

یکی دیگر از شبکه‌های روسی که قبلاً گزارش نشده بود توسط OpenAI مسدود شده بود، تلاش‌های خود را روی ارسال هرزنامه متمرکز کرد اپلیکیشن پیام رسان تلگرام. این سازمان از ابزار OpenAI برای اشکال‌زدایی کد برنامه‌ای استفاده کرد که به‌طور خودکار در تلگرام پست می‌شد و از هوش مصنوعی برای ایجاد نظراتی که حساب‌هایشان در برنامه ارسال می‌کردند استفاده می‌کرد. مانند داپلگانگر، تلاش‌های عملیات به طور گسترده با هدف تضعیف حمایت از اوکراین از طریق پست‌هایی بود که بر سیاست در ایالات متحده و مولداوی تأثیر گذاشت.

کمپین دیگری که هم OpenAI و هم Meta در ماه‌های اخیر حذف کرده‌اند، از یک شرکت بازاریابی سیاسی در تل‌آویو به نام Stoic بود. حساب‌های جعلی دانشجویان یهودی، آمریکایی‌های آفریقایی تبار و شهروندان نگران هستند. متا گفت که آنها پست هایی درباره جنگ در غزه منتشر کردند، ارتش اسرائیل را تحسین کردند و از یهودی ستیزی در دانشگاه ها و آژانس امدادرسانی سازمان ملل به آوارگان فلسطینی در نوار غزه انتقاد کردند. هدف این پست ها مخاطبان در ایالات متحده، کانادا و اسرائیل بود. متا Stoic را از پلتفرم‌های خود منع کرد و اخطار توقف و توقف شرکت را ارسال کرد.

OpenAI گفت که عملیات اسرائیل از هوش مصنوعی برای تولید و ویرایش مقالات و نظرات ارسال شده در اینستاگرام، فیس بوک و X و همچنین برای ایجاد افراد خیالی و بیوگرافی برای حساب های جعلی استفاده می کند. همچنین مشخص شد که این شبکه انتخابات را در هند هدف قرار داده است.

هیچ یک از عملیات مختل شده توسط OpenAI صرفاً از محتوای تولید شده توسط هوش مصنوعی استفاده نمی کرد. نیمو می‌گوید: «این در مورد رها کردن نسل انسان و تغییر به هوش مصنوعی نبود، بلکه در مورد ترکیب این دو بود.

او گفت که در حالی که هوش مصنوعی مزایایی را برای بازیگران تهدید ارائه می‌کند، از جمله افزایش حجم تولید و ترجمه بهتر به زبان‌های دیگر، به آنها کمکی نمی‌کند تا با بزرگترین چالش گسترش سلاح‌های هسته‌ای مقابله کنند.

نیمو می‌گوید: «شما می‌توانید محتوا را ایجاد کنید، اما اگر سیستم‌های توزیع را ندارید که آن را به روشی معتبر در معرض دید مردم قرار دهید، برای انتشار آن تلاش خواهید کرد. “و آنچه ما واقعاً در اینجا می بینیم این است که چگونه این پویایی آشکار می شود.”

او افزود، اما شرکت هایی مانند OpenAI باید هوشیار باشند. «اکنون زمان از خود راضی کردن نیست. تاریخ نشان می‌دهد که عملیات‌های نفوذی که سال‌ها شکست خورده‌اند، زمانی که هیچ‌کس به آن نگاه نمی‌کند، ناگهان منفجر می‌شود.»

دیدگاهتان را بنویسید