هوش مصنوعی (AI) یک فناوری قدرتمند و متحول کننده است، اما همچنان در صورت استفاده نادرست، تهدید بزرگی برای برهم زدن تمدن بشری است. ChatGPT، مدل زبان بزرگ (LLM) پیشگام، از پایگاه کاربری تقریباً 180 میلیون کاربر ماهانه برخوردار است. این نشان میدهد که ابزارهای مولد هوش مصنوعی به برنامههای کاربردی روزمره تبدیل شدهاند و افراد از هر طبقه از این فناوری برای بهبود بهرهوری یا خلاقیت خود استفاده میکنند.
اما در میان این پذیرش قوی، خطری نهفته است: وقتی بازیگران سرکش تصمیم می گیرند از هوش مصنوعی مولد برای پیشبرد برنامه های خود سوء استفاده کنند، چه اتفاقی می افتد؟ در حال حاضر نگرانی هایی وجود دارد که برخی از بازیگران از هوش مصنوعی مولد برای مداخله در انتخابات با فریب دادن رأی دهندگان با جعلی های عمیق و سایر محتوای تولید شده توسط هوش مصنوعی استفاده می کنند.
بر اساس بولتن اخیر فدرال از آژانس های امنیتی ایالات متحده، هوش مصنوعی مولد یکی از تهدیدات در انتخابات ریاست جمهوری آینده است که برای نوامبر 2024 برنامه ریزی شده است.
«تعدادی از بازیگران تهدید احتمالاً سعی خواهند کرد از هوش مصنوعی مولد (AI) یعنی رسانه های تقویت شده برای تأثیرگذاری و ایجاد اختلاف در طول دوره انتخابات 2024 ایالات متحده استفاده کنند، و ابزارهای هوش مصنوعی می توانند به طور بالقوه برای افزایش تلاش ها برای ایجاد اختلال در انتخابات مورد استفاده قرار گیرند. " در این گزارش اشاره شده است. بولتن
خوب، این فقط نوک کوه یخ است. مهمترین مشکل LLM و سایر ابزارهای مولد هوش مصنوعی، شرکتهایی هستند که پشت این نوآوریها قرار دارند. نگاهی دقیقتر به تحولات جاری در صنعت، وضعیتی را نشان میدهد که فناوریهای بزرگ برای ادامه کنترل تودهها موقعیت خود را نشان میدهند.
ChatGPT برای نقض حریم خصوصی مورد بررسی قرار گرفت
سال گذشته، شرکت مادر ChatGPT، OpenAI، تحت نظارت تنظیم کننده های مختلف در سراسر جهان، از جمله کمیسیون تجارت فدرال ایالات متحده (FTC) قرار گرفت. FTC از OpenAI درخواست کرد تا اطلاعات دقیقی در مورد امنیت داده ها و شیوه های حفظ حریم خصوصی خود ارائه دهد. در همین حال، در ایتالیا، تنظیمکنندهها در یک مقطع، ChatGPT را به دلیل نگرانیهای حفظ حریم خصوصی مسدود کردند، اقدامی که باعث شد سایر تنظیمکنندگان اتحادیه اروپا ChatGPT را در کانون توجه قرار دهند.
با این حال، آنچه نگرانکنندهتر است، انتقاد اخیر از سوی چهرههای برجسته مانند ادوارد اسنودن، افشاگر NSA است که به دنبال انتصاب مدیر سابق NSA به هیئت مدیره شرکت توسط OpenAI نسبت به ChatGPT هشدار داد . ایلان ماسک نیز به طور عمومی اعلام کرد و از همکاری احتمالی بین OpenAI و اپل انتقاد کرد که به اعتقاد او منجر به نقض حق حریم خصوصی خواهد شد.
دوقلوهای گوگل به تعصب نژادی متهم شدند
Gemini LLM گوگل یکی دیگر از موارد گویا از تعصبی است که هوش مصنوعی مولد می تواند مصرف کنندگان را آگاهانه و ناآگاهانه در معرض آن قرار دهد. این ابزار هوش مصنوعی برای تولید تصاویری که درجاتی از تعصب نژادی را نشان میداد، واکنشهای زیادی دریافت کرد. کاربران شکایت کردند که Gemini نتوانسته تصاویری از سفیدپوستان را که رویدادهای تاریخی خاصی را به تصویر میکشد تولید کند.
در عوض، این AI LLM به سمت ایجاد تصاویری از افراد رنگین پوست حتی زمانی که به وضوح خارج از زمینه بودند، تعصب داشت. یک مثال خوب زمانی است که کاربری از Gemini خواست تا تصاویری از پدران بنیانگذار آمریکا تولید کند. تصاویر تولید شده توسط هوش مصنوعی از زنان سیاه پوست. علاوه بر این، گوگل اخیراً به کاربران Gemini هشدار داده است که هیچ گونه اطلاعات حساسی را با LLM به اشتراک نگذارند، زیرا حاشیه نویسان انسانی به طور مرتب ارتباطات را برای بهبود مدل می خوانند و برچسب گذاری می کنند.
ویژگی فراخوان مایکروسافت به نام «جاسوس افزار»
آخرین نسخه ویندوز مایکروسافت نیز به دلیل ویژگی دستیار هوش مصنوعی جدید خود، Copilot مورد حمله قرار گرفته است. ویژگی «یادآوری» برای ضبط فعالیت صفحه طراحی شده است و به کاربران این امکان را میدهد تا به راحتی یک رویداد خاص را دوباره پخش کنند یا فعالیتهای خاصی را مانند عملیات حافظه عکاسی مجدداً مشاهده کنند.
بسیاری از منتقدانی که Recall را با نرمافزارهای جاسوسی مقایسه میکردند، خوشحال نشد. چندین کاربر در توییتر (که قبلاً اطلاعات را استخراج می کردند.
آیا پیشرفت های هوش مصنوعی می توانند دموکراتیک شوند؟
در حالی که دموکراسیسازی نوآوریهای هوش مصنوعی ممکن است راه درازی باشد، با توجه به نفوذ و دسترسی به دادههای آموزشپذیری که شرکتهای پیشگام (فناوری بزرگ) در حال حاضر دارند، میتوان نوآوریهای هوش مصنوعی را غیرمتمرکز کرد.
یکی از راههای رسیدن به این هدف، ادغام فناوری بلاک چین است، که اساساً برای کارکرد دموکراتیک طراحی شده است تا هیچ مرجع یا نقطهای از شکست نتواند شبکه را به خطر بیندازد.
به عنوان مثال، در بلاک چین لایه 1 Qubic با هوش مصنوعی، اکوسیستم توسط یک کوین غیرمتمرکز به نام $QUBIC تامین می شود. این سکه بومی به عنوان یک «واحد انرژی» طراحی شده است که اساساً عملیات قراردادهای هوشمند و سایر خدمات را در پلتفرم Qubic قدرت میدهد. برخلاف پیشرفتهای متمرکز هوش مصنوعی، هر کسی میتواند با خرید در صرافیهایی مانند gate.io یا شرکت در اکوسیستم استخراج سودمند اثبات کار (PoW) Qubic در عملیات Qubic مشارکت داشته باشد.
راه دیگری برای معرفی دموکراسی به هوش مصنوعی از طریق خود تنظیمی است. همانطور که وجود دارد، اکثر رگولاتورها در سراسر جهان در حال پیگیری هستند و تنظیم صنعت هوش مصنوعی را بسیار دشوار می کند. با این حال، اگر بازیگران این بخش نوعی از خود تنظیمی را می پذیرفتند، همه چیز هماهنگ تر می شد.
در واقع، سال گذشته، هفت شرکت از جمله OpenAI، مایکروسافت، گوگل، متا، آمازون، Anthropic و Inflection بر روی یک سند خود تنظیمی برای اطمینان از اعتماد، حریم خصوصی و امنیت توافق کردند . گامی در مسیر درست است، اما چه اتفاقی میافتد وقتی همه این بازیگران برای نقض حریم خصوصی مصرفکننده یا ترویج تعصب سیاسی و اجتماعی تبانی میکنند؟ این هشدار در مورد خودتنظیمی است.
نتیجه
همانطور که در این مقاله اشاره شد، متمرکز شدن هوش مصنوعی خطری برای اصول اساسی جامعه امروزی به همراه دارد. از یک سو، می توان از آن برای نفوذ در بافت اخلاقی استفاده کرد، در حالی که از سوی دیگر، هوش مصنوعی تهدیدی برای خود دموکراسی سیاسی است.
با این حال، زیبایی این است که، مانند اینترنت، ما هنوز فرصت داریم تا اعتدال را در پیشرفتهای هوش مصنوعی ادغام کنیم. مهمتر از آن، ما فناوریهای پیشرفتهای مانند بلاک چین داریم که میتواند به عنوان یک بلوک ساختمانی برای ایجاد یک آینده شفاف و بیطرف عمل کند که واقعاً میتواند به نفع جامعه باشد.