ورود به دوران فرآورده های تبلیغاتی هوش مصنوعی

چگونه در برابر گمراه سازی های اَبَر توانمند دفاع کنیم؟

۱۲ آذر ۱۴۰۲ | ۱۸:۰۰ کد : ۲۰۲۳۳۹۵ اخبار اصلی اقتصاد و انرژی
در شرایطی که ابزارهای هوش مصنوعی جهان را در می نوردند، دشوار بتوان تصور کرد که تبلیغاتچی ها از این ابزارها برای دروغگویی و گمراه سازی استفاده نکنند.
چگونه در برابر گمراه سازی های اَبَر توانمند دفاع کنیم؟

نویسندگان: جُش گلدشتاین JOSH A. GOLDSTEIN، عضو پژوهشی پروژه CyberAI در مرکز امنیت و فن آوری های نوین دانشگاه جرج تاون و گیریش ساستری GIRISH SASTRY پژوهشگر در تیم سیاستگذاری OpenAI، شرکت توسعه دهند چت جی پی تی 

دیپلماسی ایرانی: هفت سال پس از آنکه مزدبگیران روسی در انتخابات 2016 ایالات متحده دخالت کردند؛ از جمله با معرفی خود بعنوان شهروندان آمریکایی در هزاران حساب تقلبی رسانه های اجتماعی، اکنون فن آوری دیگری صحنه را در اختیار می گیرد که توانمندی تسریع و گسترش تبلیغات را دارد: هوش مصنوعی یا AI. بیشتر نگرانی هم بر خطرات تولیدات شنیداری و دیداریِ"دروغ های عمیق deepfakes" تمرکز دارد که از AI برای خلق تصاویر یا رخدادهایی استفاده می کند که عملا وجود نداشته یا رخ نداده اند. اما یک توانمندی دیگر AI هم به همین اندازه نگران کننده است. پژوهشگران سالهاست هشدار می دهند که سامانه های زایشی هوش مصنوعی generative AI systems که آموزش دیده اند تا زبان اصلی – یا الگوهای زبانی language models- را تولید کنند، می توانند توسط رقبا و حریفان آمریکا برای تشدید عملیات نفوذ به کار گرفته شوند. اکنون به نظر می رسد که این مدل ها، در آستانه توانمندکردن کاربران به تولید (زایش) بدون محدودیتِ متن های اصلی هستند بی آنکه نیاز چندانی به تلاش بشری در کار باشد. این امکان، توانایی تبلیغاتچی ها را برای ترغیب رای دهندگان ناآگاه، لبریز کردن محیط های اطلاعاتی آنلاین و تولید و ارسال ایمیل های تقلبی شخصی شده افزایش می دهد. در اینجا با یک خطر دوگانه روبه رو هستیم: الگوها یا مدل های زبانی، نه تنها می توانند باورهای مخاطب را به هم بریزند بلکه قادرند اعتماد عمومی به اطلاعاتی را که مردم برای داوری و تصمیم گیری به آنها متکی هستند را نیز زایل کنند.

پیشرفت پژوهش های هوش مصنوعیِ خلاق و زایشی، از انتظارات پیشین فراتر رفته است. سال گذشته از مدل های زبانی برای تولید پروتئین های کارکردی functional proteins، شکست دادن حریفان انسانی در بازیهایی راهبردی که نیازمند گفت وگوست و خلق دستیاران آنلاین استفاده شد. مدل های زبانی گَپ زن Conversational language models یک شبه در سطحی گسترده مورد استفاده قرار گرفتند: برنامه چت جی پی تی شرکت هوش مصنوعی باز OpenAI’s ChatGPT program  ماه دسامبر گذشته ارائه شد و در دو ماه نخست راه اندازی اش، بیش از صد میلیون نفر از این برنامه برای گپ زنده استفاده کردند. همچنین میلیونها نفر هم از ابزارهای هوش مصنوعی گوگل و مایکروسافت استفاده کردند که با فاصله اندکی پس از چت جی پی تی ارائه شد. در نتیجه، ریسک هایی که همین چند سال پیش، گمانه زنی های نظری به شمار می آمد، اکنون بطور فزاینده ای به واقعیت می پیوندد. برای مثال، "چت بوت chatbot" متکی به هوش مصنوعی موتور جست وجوی بینگ متعلق به مایکروسافت، نشان داده که قادر است ذهن کاربران را دستکاری و حتی آنها را تهدید کند.

در شرایطی که ابزارهای هوش مصنوعی جهان را در می نوردند، دشوار بتوان تصور کرد که تبلیغاتچی ها از این ابزارها برای دروغگویی و گمراه سازی استفاده نکنند. برای آمادگی در برابر چنین سرنوشتی است که دولت ها، کسب و کارها و سازمان های جامعه مدنی باید نورم ها و سیاست هایی را برای بکارگیری متن های تولید شده توسط AI و نیز تکنیک های تشخیص اصالت یک متن خاص- و اینکه آیا توسط یک ابزار AI تولید شده یا نه- توسعه دهند. تلاش خبرنگاران و پژوهشگران برای افشای حساب های تقلبی رسانه های مجازی و وبسایت های اخبار تقلبی نیز می تواند تاثیر کارزارهای تبلیغاتی پنهان را محدود سازد صرفنظر از اینکه این محتواها توسط افراد بشر یا ابزارهای هوش مصنوعی نوشته شده باشند.

یک مدل زبانی، نوعی سامانه هوش مصنوعی است که از گذر آزمون و خطا آموزش دیده تا متن ها را مصرف و نیز تولید کند. بخش بزرگی از فرایند آموزش این سامانه ها، شامل پیش بینی واژه بعدی از میان یک بدنه متنی بزرگ است. اگر پیش بینی اشتباه باشد، مدل جریمه می شود و اگر درست باشد، پاداش می گیرد. این فرایند ساده، نتایج مولد و شگفت انگیزی داده است. از یک مدل زبانی بخواهید که یک توئیت را با واژه های مختلف بازنویسی کند یا یک متن وبلاگی را که نکات خاصی در آن است، بنویسد و این کار را برایتان انجام می دهد. مدل های زبانی آموخته اند که کارهای شگفت انگیزی انجام دهند که حتی کسانی که آنها را تمرین داده اند هم پیش بینی نمی کردند از جمله در هم ریختن واژه ها، انجام محاسبات هشت رقمی و حل مشکلات ریاضی. پژوهشگران نمی توانند با اطمینان پیش بینی کنند که مدل های زبانی در آینده، چه توانمندی های دیگری بدست خواهند آورد.

البته که مدل های امروزی، محدودیت هایی دارند. حتی پیشرفته ترین آنها هم برای حفظ انسجام در پاراگراف های بلند مشکل دارند، عباراتی نادرست یا مبهم تولید می کنند (پدیده ای که پژوهشگران هوش مصنوعی عنوان توهم به آن داده اند) و قادر به فهم رخدادهایی نیستند که پس از آموزش مدل به وقوع پیوسته اند. به رغم این محدودیت ها، مدل های زبانی می توانند متن هایی را تولید کنند که اغلب همانند متن هایی است که توسط افراد بشر نوشته شده اند. این توانایی، آنها را به ابزارهایی طبیعی برای تولید محتواهای تبلیغاتی تبدیل می کند و وقتی این مدل ها تواناتر شده و مشکلاتی همچون توهم آنها برطرف شود، برای تبلیغاتچی ها جذاب تر هم می شوند، مثلا وقتی آموزش داده شوند که پیش از پاسخ به سوال ها و درخواست ها، اطلاعات تازه را مرور کنند.

برای مثال به آنچه هوش مصنوعی می تواند برای گروههای تبلیغاتی موجود انجام دهد، توجه کنید. کسنیا کلوچکووا Ksenia Klochkova خبرنگار روس درباره تجربه خود از زمانی نوشته که بصورت مخفی برای جبهه سایبری Z با عنوان "ترول فارم" در سن پترزبورگ روسیه کار می کرد، گروهی که درباره جنگ روسیه در اوکراین، محتواهای تبلیغاتی تولید می کرد. مزدبگیران این گروه، پس از یک ماه می توانستند دورکاری کنند و این امکان را فراهم آورند تا عملیات تبلیغاتی روسیه، از جای پای فیزیکی خود، فراتر رود. مدل های زبانی می توانند با نویسندگان بشری ترکیب شده یا جایگزین آنها شوند تا چنین محتواهایی را تولید نمایند. کلوچکووا در پژوهشی که در مارس 2022 منتشر شد، می نویسد که وی یکی از صد مزدبگیری بود که در یک شیفت کاری برای نوشتن پست های کوتاه در سایت هایی مشخص از رسانه های اجتماعی مطلب می نوشتند تا خطوط تبلیغاتی مسکو را به پیش ببرند. وقتی با بکارگیری ابزارهای هوش مصنوعی، هزینه ها کاهش یابد، احتمالا بازیگران سیاسی بیشتر و بیشتری تصمیم خواهند گرفت تا اسپانسر عملیات نفوذ شده یا خود چنین عملیاتی را به جریان اندازند.

علاوه بر عملیاتی شبیه جبهه سایبری Z، از مدل های زبانی می توان برای دیگر زمینه هایی که طراحان هوش مصنوعی در ذهن نداشته اند نیز استفاده کرد. در سال 2020، سارا کرپز Sarah Kreps و داگلاس کرینر Douglas Kriner آزمونی را انجام دادند که در آن نامه های تهیه شده توسط افراد بشری و برنامه های هوش مصنوعی را برای قانونگذاران آمریکایی ارسال کردند. آنها دریافتند که احتمال پاسخ اعضای کنگره به نامه های تولید شده توسط هوش مصنوعی، تنها دو درصد پایینتر از احتمال پاسخ به نامه های افراد حقیقی بود. این ریسک وجود دارد که از مدل های زبانی برای سوء استفاده یا حتی لبریزکردن سامانه هایی استفاده کرد که بازخوردهای جامعه را دریافت می کنند و به این ترتیب، ارزیابی های دمکراتیک را مختل کرد. 

البته این گونه هم نیست که مدل های زبانی، ضرورتا به لبریزشدن سامانه ها در همه جا منجر شوند. در مواردی، نشان داده شده که آنها بی کفایت هستند. وبسایت فن آوری CNET دهها مطلب خبری تولید شده توسط هوش مصنوعی را منتشر کرد تا دریابد که بسیاری شان نارسایی های واقعی دارند. استک اُوِرفلو Stack Overflow، پلتفرمی که کدنویسان را قادر می سازد به پرسش های یکدیگر پاسخ دهند، ناچار شد کاربرانش را از بکارگیری چت جی پی تی منع کند چرا که پاسخ های نادرست می داد. اما با بهبود مدل های زبانی، بسیار دشوارتر می شود که بروندادهایشان را با تکیه بر محتوی ردیابی کرد. نهادهای متفاوتی که گستره آنها از پلتفرم های رسانه های اجتماعی تا سازمان های دولتی را در بر می گیرد، نیازمند دیدگاه های جامعه هستند و مجبور خواهند بود مشخص سازند که دروندادهایشان توسط هوش مصنوعی تولید شده یا توسط شهروندان. 

مدل های زبانی نه تنها این توانمندی را دارند که تبلیغات بیشتری را با هزینه های پایین تر تولید کنند بلکه همچنین می توانند کیفیت تبلیغات را هم با مناسب سازی آن برای گروههای خاص، بالا ببرند. در سال 2016، مزدبگیران مزرعه دروغ پردازی روسیه که با عنوان سازمان پژوهش اینترنت شناخته می شد، تلاش کردند تا با جازدن خود بعنوان سیاهپوستان چپگرای آمریکایی یا سفیدهای طرفدار ترامپ، در جوامع آنلاین آمریکایی نفوذ کنند و برای مثال تبلیغاتی را که برای این گروهها مناسب سازی شده بود، رواج دهند. اما چنین تلاش هایی به خاطر محدودیت باند و نیز دانش آنان از جوامع هدف، چندان گسترده و کارآمد نبود.

با بهبود مدل های زبانی، این موانع برداشته می شود. پژوهش های اولیه نشان می دهد که این مدل ها می توانند از تجربه فرهنگی اجتماعی گروههای جمعیتی خاص بهره گرفته و گرایشات آن گروهها را به نمایش گذارند. چه بسا که مدل های زبانی آینده، با بکارگیری داده های دقیقی که از جوامع آمریکایی، از افکارسنجی، از دلالان داده ها و از پلتفرم های رسانه های اجتماعی بدست می آورند، قادر شوند که محتواهای شخصی سازی شده منسجمی تولید کنند که به تبلیغاتچی ها امکان می دهد نزد مخاطب هدف، کسب اعتبار کنند بی آنکه عملا مخاطب خود را بشناسند. تبلیغات شخصی سازی شده می تواند خارج از رسانه های اجتماعی هم موثر باشد مثلا از طریق ایمیل های شخصی یا وبسایت های خبری.

افراطی ترین شکل شخصی سازی، چت های نفر به نفر است. تبلیغاتچی ها می توانند با بکارگیری چت بوت های هوش مصنوعی با مخاطبان هدف، بصورت فردی در تماس قرار گیرند و مستقیما نگرانی ها، علائق یا استدلال های متقابل آنها را هدف بگیرند و احتمال ترغیب (یا دست کم انحراف توجه) آنها را افزایش دهند. در حال حاضر، بسیار هزینه بر است که گپ مداومی میان یک فرد تبلیغاتچی با یک جمعیت بزرگ برقرار کرد اما در آینده که یک مدل زبانی، موثرتر و کم هزینه تر عمل می کند، چنین کارزارهایی با کمک هوش مصنوعی، شدنی تر خواهد بود. 

هم اکنون نیز تمایز اینکه با یک طرف تماس بشری یا با یک ماشین سروکار داریم، دشوار است. اخیرا یک پروژه تحقیقاتی نشان داد که یک عامل هوش مصنوعی، در میان ده درصد بالای شرکت کنندگان در یک نسخه آنلاین یک بازی کلاسیک دیپلماسی رتبه گرفت. در این بازی، افراد واقعی بر سر شکل دادن به یک اتحاد با هم مذاکره می کردند. اگر مدل های زبانی کنونی را می توان آموزش داد که بازیکنان را به گفتگو با خود در یک بازی ترغیب کنند، مدل های آینده شاید قادر باشند که افراد را ترغیب کنند که عملا اقدامی صورت دهند- به یک گروه فیسبوکی بپیوندند، یک درخواست را امضا کنند یا حتی در یک اعتراضات شرکت جویند.

برای درک بهتر اینکه مدل‌های زبانی با چه سرعتی در حال بهبود هستند، یکی از آخرین مدل‌های گوگل به نام Flan-PaLM را در نظر بگیرید. این مدل می‌تواند تقریباً نه مورد از هر ده سوال آزمون صدور مجوز پزشکی آمریکا را به درستی پاسخ دهد. همچنین می‌تواند کارهای محاسباتی انجام داده، به سوال های فیزیک پاسخ دهد و شعر بسراید. این سامانه‌های هوش مصنوعی، ابزارهای خطرناکی در دست تبلیغاتچی ها هستند و اکنون هم پیوسته توانمندتر می شوند.

با توجه به اینکه تحلیل‌گران مکررا خطر فناوری‌های تازه را در حوزه امنیت ملی برجسته کرده‌اند، معقول است که شدت تهدید تبلیغات تولیدی مدل‌های زبانی را به چالش کشاند. نهایتا، مفسران هشدار داده‌اند که به این ترتیب، امکان سوء استفاده از نسل های پیشین مدل‌های زبانی وجود دارد. با این حال، شواهد عمومی اندکی وجود دارد که نشان دهد که کشورها از این ابزارها برای عملیات تأثیرگذاری با استفاده از هوش مصنوعی استفاده کرده‌ باشند. البته، عدم وجود شواهدی از این دست کارزارها، به معنی نبود آنها نیست. اگرچه هیچ شواهد علنی ای وجود ندارد که مدل‌های زبانی برای عملیات تأثیرگذاری مورد استفاده قرار گرفته‌باشند، هیچ شواهدی هم از عدم استفاده از این ابزارها به این شیوه وجود ندارد. پژوهشگرانی که بر روی موضوع فریب اطلاعاتی و گمراه سازی کار می کنند، به تازگی توجه خود را مصروف به مدل‌های زبانی کرده‌اند.

نخستین فن آوری پرطرفدار برای تولید چهره، در سال 2014 ساخته شد اما در سال 2019 بود که پژوهشگران از تصاویر پروفایلی تولیدشده توسط هوش مصنوعی در یک عملیات نفوذ، رونمایی کردند. در سال 2022 بیش از دو سوم عملیات نفوذ توسط شرکت متا، ردیابی و حذف شدند که از جمله آنها، چهره های تقلبی بود. این کار موجب شد که فن آوری مورد اشاره، ارتقا یابد و دسترسی آسانتری به تبلیغاتچی ها برای استفاده روتین بدهد. همین اتفاق می تواند برای مدل های زبانی هم رخ دهد. شرکت ها در حال سرمایه گذاری بر روی بهینه سازی برونداد مدل های زبانی و تسهیل بکارگیری آنها هستند که این کار تنها جذابیت آنها برای تبلیغاتچی ها را بیشتر می کند.

هرچند مدل های زبانی به ابزارهای نیرومند تبلیغاتی تبدیل می شوند اما لزوما به یک آخرالزمان اطلاعاتی منجر نمی شوند. برای اجرای یک کارزار نفوذ موفق با هوش مصنوعی، تبلیغاتچی ها به سه چیز نیاز دارند: نخست، آنها نیازمند دسترسی به یک مدل زبانی قابل سرویس دهی هستند که می توانند آن را با پاره های نرم افزاری موجود بسازند، سرقت کنند، از یک سایت منبع باز دانلود کنند یا به خدمات یک تامین کننده هوش مصنوعی دسترسی داشته باشند. دوم، آنها به زیرساخت نیاز دارند، مثلا به وبسایت ها یا حساب های تقلبی در شبکه های اجتماعی برای انتشار تبلیغات. سوم، به افرادی که با این محتواهای تبلیغاتی، گمراه، گیج یا کلافه شوند. در هر مرحله ای از این فرایند، دولت ها، کسب و کارها و فن آوران این امکان را دارند که مداخله کرده و آسیبی را که با چنین کارزارهایی وارد می شود، خنثی سازند. 

ظهور مدل های زبانی هوش مصنوعی، نیازمند بازاندیشی گسترده تری است. مهمترین سوال های بنیادینی که جوامع باید برایشان پاسخی بیابند، عبارتند از: چه کسی دسترسی به این مدل ها را کنترل می کند؟ این مدل ها، چه افرادی را در خطر قرار می دهند؟ و آیا تقلید از گفتگوی بشری بوسیله هوش مصنوعی، اساسا کار مطلوبی است؟ هرچند دشوار بتوان پیامدها و تاثیرات مدل های زبانی آینده را پیش بینی کرد، اما روشن است که این پیامدها، از محدوده آزمایشگاههای هوش مصنوعیِ خالق آنها، بسیار فراتر می روند. بنابراین، دولت ها، کسب و کارها، جامعه مدنی و کلیت جامعه باید همگی در این باره سهم و نظر داشته باشند که چگونه این مدل ها، طراحی و به کار گرفته شوند و چگونه باید خطرات بالقوه آنها را مدیریت کرد.

منبع: فارن افرز / تحریریه دیپلماسی ایرانی/11

کلید واژه ها: هوش مصنوعی چت جی پی تی رسانه تبلیغات دروغ دروغ سیاسی مدل مدل زبانی مدل زبانی آینده ابزارهای هوش مصنوعی


( ۲ )

نظر شما :