هوش مصنوعی تحت بررسی: حریم خصوصی، تعصب، و فشار برای تمرکززدایی

هوش مصنوعی تحت بررسی: حریم خصوصی، تعصب، و فشار برای تمرکززدایی

هوش مصنوعی (AI) یک فناوری قدرتمند و متحول کننده است، اما همچنان در صورت استفاده نادرست، تهدید بزرگی برای برهم زدن تمدن بشری است. ChatGPT، مدل زبان بزرگ (LLM) پیشگام، از پایگاه کاربری تقریباً 180 میلیون کاربر ماهانه برخوردار است. این نشان می‌دهد که ابزارهای مولد هوش مصنوعی به برنامه‌های کاربردی روزمره تبدیل شده‌اند و افراد از هر طبقه از این فناوری برای بهبود بهره‌وری یا خلاقیت خود استفاده می‌کنند.

اما در میان این پذیرش قوی، خطری نهفته است: وقتی بازیگران سرکش تصمیم می گیرند از هوش مصنوعی مولد برای پیشبرد برنامه های خود سوء استفاده کنند، چه اتفاقی می افتد؟ در حال حاضر نگرانی هایی وجود دارد که برخی از بازیگران از هوش مصنوعی مولد برای مداخله در انتخابات با فریب دادن رأی دهندگان با جعلی های عمیق و سایر محتوای تولید شده توسط هوش مصنوعی استفاده می کنند.

بر اساس بولتن اخیر فدرال از آژانس های امنیتی ایالات متحده، هوش مصنوعی مولد یکی از تهدیدات در انتخابات ریاست جمهوری آینده است که برای نوامبر 2024 برنامه ریزی شده است.

«تعدادی از بازیگران تهدید احتمالاً سعی خواهند کرد از هوش مصنوعی مولد (AI) یعنی رسانه های تقویت شده برای تأثیرگذاری و ایجاد اختلاف در طول دوره انتخابات 2024 ایالات متحده استفاده کنند، و ابزارهای هوش مصنوعی می توانند به طور بالقوه برای افزایش تلاش ها برای ایجاد اختلال در انتخابات مورد استفاده قرار گیرند. " در این گزارش اشاره شده است. بولتن

خوب، این فقط نوک کوه یخ است. مهم‌ترین مشکل LLM و سایر ابزارهای مولد هوش مصنوعی، شرکت‌هایی هستند که پشت این نوآوری‌ها قرار دارند. نگاهی دقیق‌تر به تحولات جاری در صنعت، وضعیتی را نشان می‌دهد که فناوری‌های بزرگ برای ادامه کنترل توده‌ها موقعیت خود را نشان می‌دهند.

ChatGPT برای نقض حریم خصوصی مورد بررسی قرار گرفت

سال گذشته، شرکت مادر ChatGPT، OpenAI، تحت نظارت تنظیم کننده های مختلف در سراسر جهان، از جمله کمیسیون تجارت فدرال ایالات متحده (FTC) قرار گرفت. FTC از OpenAI درخواست کرد تا اطلاعات دقیقی در مورد امنیت داده ها و شیوه های حفظ حریم خصوصی خود ارائه دهد. در همین حال، در ایتالیا، تنظیم‌کننده‌ها در یک مقطع، ChatGPT را به دلیل نگرانی‌های حفظ حریم خصوصی مسدود کردند، اقدامی که باعث شد سایر تنظیم‌کنندگان اتحادیه اروپا ChatGPT را در کانون توجه قرار دهند.

با این حال، آنچه نگران‌کننده‌تر است، انتقاد اخیر از سوی چهره‌های برجسته مانند ادوارد اسنودن، افشاگر NSA است که به دنبال انتصاب مدیر سابق NSA به هیئت مدیره شرکت توسط OpenAI نسبت به ChatGPT هشدار داد . ایلان ماسک نیز به طور عمومی اعلام کرد و از همکاری احتمالی بین OpenAI و اپل انتقاد کرد که به اعتقاد او منجر به نقض حق حریم خصوصی خواهد شد.

دوقلوهای گوگل به تعصب نژادی متهم شدند

Gemini LLM گوگل یکی دیگر از موارد گویا از تعصبی است که هوش مصنوعی مولد می تواند مصرف کنندگان را آگاهانه و ناآگاهانه در معرض آن قرار دهد. این ابزار هوش مصنوعی برای تولید تصاویری که درجاتی از تعصب نژادی را نشان می‌داد، واکنش‌های زیادی دریافت کرد. کاربران شکایت کردند که Gemini نتوانسته تصاویری از سفیدپوستان را که رویدادهای تاریخی خاصی را به تصویر می‌کشد تولید کند.

در عوض، این AI LLM به سمت ایجاد تصاویری از افراد رنگین پوست حتی زمانی که به وضوح خارج از زمینه بودند، تعصب داشت. یک مثال خوب زمانی است که کاربری از Gemini خواست تا تصاویری از پدران بنیانگذار آمریکا تولید کند. تصاویر تولید شده توسط هوش مصنوعی از زنان سیاه پوست. علاوه بر این، گوگل اخیراً به کاربران Gemini هشدار داده است که هیچ گونه اطلاعات حساسی را با LLM به اشتراک نگذارند، زیرا حاشیه نویسان انسانی به طور مرتب ارتباطات را برای بهبود مدل می خوانند و برچسب گذاری می کنند.

ویژگی فراخوان مایکروسافت به نام «جاسوس افزار»

آخرین نسخه ویندوز مایکروسافت نیز به دلیل ویژگی دستیار هوش مصنوعی جدید خود، Copilot مورد حمله قرار گرفته است. ویژگی «یادآوری» برای ضبط فعالیت صفحه طراحی شده است و به کاربران این امکان را می‌دهد تا به راحتی یک رویداد خاص را دوباره پخش کنند یا فعالیت‌های خاصی را مانند عملیات حافظه عکاسی مجدداً مشاهده کنند.

بسیاری از منتقدانی که Recall را با نرم‌افزارهای جاسوسی مقایسه می‌کردند، خوشحال نشد. چندین کاربر در توییتر (که قبلاً اطلاعات را استخراج می کردند.

آیا پیشرفت های هوش مصنوعی می توانند دموکراتیک شوند؟

در حالی که دموکراسی‌سازی نوآوری‌های هوش مصنوعی ممکن است راه درازی باشد، با توجه به نفوذ و دسترسی به داده‌های آموزش‌پذیری که شرکت‌های پیشگام (فناوری بزرگ) در حال حاضر دارند، می‌توان نوآوری‌های هوش مصنوعی را غیرمتمرکز کرد.

یکی از راه‌های رسیدن به این هدف، ادغام فناوری بلاک چین است، که اساساً برای کارکرد دموکراتیک طراحی شده است تا هیچ مرجع یا نقطه‌ای از شکست نتواند شبکه را به خطر بیندازد.

به عنوان مثال، در بلاک چین لایه 1 Qubic با هوش مصنوعی، اکوسیستم توسط یک کوین غیرمتمرکز به نام $QUBIC تامین می شود. این سکه بومی به عنوان یک «واحد انرژی» طراحی شده است که اساساً عملیات قراردادهای هوشمند و سایر خدمات را در پلتفرم Qubic قدرت می‌دهد. برخلاف پیشرفت‌های متمرکز هوش مصنوعی، هر کسی می‌تواند با خرید در صرافی‌هایی مانند gate.io یا شرکت در اکوسیستم استخراج سودمند اثبات کار (PoW) Qubic در عملیات Qubic مشارکت داشته باشد.

راه دیگری برای معرفی دموکراسی به هوش مصنوعی از طریق خود تنظیمی است. همانطور که وجود دارد، اکثر رگولاتورها در سراسر جهان در حال پیگیری هستند و تنظیم صنعت هوش مصنوعی را بسیار دشوار می کند. با این حال، اگر بازیگران این بخش نوعی از خود تنظیمی را می پذیرفتند، همه چیز هماهنگ تر می شد.

در واقع، سال گذشته، هفت شرکت از جمله OpenAI، مایکروسافت، گوگل، متا، آمازون، Anthropic و Inflection بر روی یک سند خود تنظیمی برای اطمینان از اعتماد، حریم خصوصی و امنیت توافق کردند . گامی در مسیر درست است، اما چه اتفاقی می‌افتد وقتی همه این بازیگران برای نقض حریم خصوصی مصرف‌کننده یا ترویج تعصب سیاسی و اجتماعی تبانی می‌کنند؟ این هشدار در مورد خودتنظیمی است.

نتیجه

همانطور که در این مقاله اشاره شد، متمرکز شدن هوش مصنوعی خطری برای اصول اساسی جامعه امروزی به همراه دارد. از یک سو، می توان از آن برای نفوذ در بافت اخلاقی استفاده کرد، در حالی که از سوی دیگر، هوش مصنوعی تهدیدی برای خود دموکراسی سیاسی است.

با این حال، زیبایی این است که، مانند اینترنت، ما هنوز فرصت داریم تا اعتدال را در پیشرفت‌های هوش مصنوعی ادغام کنیم. مهمتر از آن، ما فناوری‌های پیشرفته‌ای مانند بلاک چین داریم که می‌تواند به عنوان یک بلوک ساختمانی برای ایجاد یک آینده شفاف و بی‌طرف عمل کند که واقعاً می‌تواند به نفع جامعه باشد.