"ما نیاز به بررسی دقیق تر داریم": شرکت های فناوری چگونه می توانند مشکل سوگیری هوش مصنوعی را بهتر حل کنند؟

در این سایت مقالات و اخباری در رابطه با اینترنت و فضای مجازی و تکنولوژی گذاشته میشود.

"ما نیاز به بررسی دقیق تر داریم": شرکت های فناوری چگونه می توانند مشکل سوگیری هوش مصنوعی را بهتر حل کنند؟

محققان در سال 2020 می‌گویند: «مدل‌های آموزش‌دیده از طریق اینترنت دارای سوگیری‌هایی در مقیاس اینترنت هستند.
توسط  اوشن دوبوست
این مقاله را به اشتراک بگذارید

ابزارهای هوش مصنوعی (AI) - از الگوریتم‌ها تا نرم‌افزارهای مولد - دارای سوگیری‌های داخلی هستند. پس چرا مشکل برطرف نشده است؟

 

سال‌هاست که تایید شده است خدمات پرده مشهد که ابزارهای هوش مصنوعی (AI)، از جمله الگوریتم‌های تصمیم‌گیری و نرم‌افزارهای مولد، می‌توانند سوگیری‌هایی شبیه انسان داشته باشند. بنابراین، چرا جدیدترین نسخه‌های منتشر شده همچنان آنها را به نمایش می‌گذارند؟

تا حدی، مدل‌های زبان بزرگ مانند GPT اصلی OpenAI بر روی داده‌های گسترده آموزش داده می‌شوند، بنابراین دانستن منابع سوگیری‌ها می‌تواند پیچیده باشد.

به عنوان مثال، GPT بر روی داده های اینترنت آموزش دیده است - که جزئیات آن فاش نشده است. محققان خود OpenAI در سال 2020 گفتند : «مدل‌های آموزش‌دیده در اینترنت دارای سوگیری‌هایی در مقیاس اینترنت هستند. مدل‌ها تمایل دارند کلیشه‌های موجود در داده‌های آموزشی خود را منعکس کنند».

 
 

هنگامی که GPT-3 آن منتشر شد، مشخص شد که کلیشه های جنسیتی، نژادپرستانه و مذهبی را بازتولید می کند.

دکتر مهیری آیتکن، کارشناس اخلاق در برنامه سیاست عمومی در موسسه آلن تورینگ، به یورونیوز گفت: «باید اقداماتی در مرحله (توسعه) برای شناسایی سوگیری‌های بالقوه و کاهش و رسیدگی به آن‌ها وجود داشته باشد  .

جامعه جهانی برای شفافیت بیشتر، از جمله پشتیبانی از توسعه هوش مصنوعی منبع باز، فشار می آورد. با هدف به حداقل رساندن و رسیدگی به مسائل سوگیری، تقاضاها برای افزایش نظارت و پاسخگویی برای شرکت های فناوری بزرگ در حال رشد است.

او افزود: «من فکر می‌کنم که ما باید در مرحله توسعه، بررسی دقیق‌تر و مسئولیت‌پذیری بیشتری از شرکت‌های بزرگ فناوری بخواهیم تا بدانیم آنها برای به حداقل رساندن و رفع تعصب چه می‌کنند.»

و اگر این ابزارها تا این حد ناقص هستند، چرا در وهله اول در دسترس عموم قرار گرفتند؟

آیتکن می‌گوید: «انتشار آنها به دلیل رقابت تجاری به جای ارزش برای جامعه بود.

ابزارهای هوش مصنوعی هنوز در حال پیشرفت هستند

تلاش‌هایی برای ایجاد هوش مصنوعی مسئولانه‌تر در حال انجام است که شامل یادگیری از نسخه‌های قبلی این فناوری می‌شود.

شرکت‌ها تدابیری را برای جلوگیری از سوء خدمات سئوhttps://hamedmahdizadeh.ir/seo-services/ استفاده قرار داده‌اند، مانند API تعدیل OpenAI که هدف آن پرچم‌گذاری محتوای مضر است.

آیا ما باید جامعه را آنگونه که هست بازتولید کنیم؟ یا باید جامعه را آنطور که دوست داریم نمایندگی کنیم؟ اما پس از آن، بر اساس تصورات چه کسی؟»
 جیادا پیستیلی 
اخلاق شناس اصلی در بغل کردن صورت

دولت ایالات متحده همچنین به هماهنگ کردن یک کنوانسیون هک در سال جاری برای ارزیابی عمومی سیستم‌های هوش مصنوعی کمک کرده است.

آن را به عنوان یک تمرین بزرگ "تیم قرمز" برای کشف اینکه چگونه ممکن است اشتباه پیش برود - تکنیکی که به طور گسترده در امنیت سایبری استفاده می شود، در نظر بگیرید.

Giada Pistilli، یک متخصص اخلاق در Hugging Face، به Euronews Next گفت: یکی دیگر از تکنیک‌های مورد استفاده برای مقابله با سوگیری، یادگیری تقویتی از بازخورد انسانی است.

این باعث می‌شود که کارگران انسانی نتایج مدل هوش مصنوعی را برای دستیابی به خروجی‌های طبیعی‌تر و کمتر مضر قضاوت کنند.

اما این فرآیندی است که تا حدودی محدود است و هر فردی تعصب خود را به همراه دارد.

برای Pistilli باید از خود بپرسیم که از این مدل ها چه می خواهیم.

"آیا ما باید جامعه را آنگونه که هست بازتولید کنیم؟ یا باید جامعه را آنگونه که دوست داریم بازتولید کنیم؟ اما اگر جواب مورد دوم باشد، طبق تصور کیست؟"

Anthropic، شرکتی که توسط محققان سابق OpenAI تأسیس شده بود، چت بات خود را به نام Claude ایجاد کرد.

برای اطمینان از اینکه کلود تا حد ممکن رفتار مناسبی خواهد داشت، آنها قانون اساسی را به آن اعطا کردند که "از منابع مختلفی از جمله اعلامیه حقوق بشر سازمان ملل، بهترین شیوه های اعتماد و ایمنی و اصول پیشنهاد شده توسط سایر آزمایشگاه های تحقیقاتی هوش مصنوعی اقتباس شده است." به وبلاگ شرکت

آیتکن گفت: "وقتی این مدل‌ها عرضه می‌شوند، محصولات نهایی نیستند. بنابراین در اختیار عموم قرار می‌گیرند تا مردم از آنها برای اصلاح بیشتر استفاده کنند، تا آنها را برای توسعه نسخه بعدی مدل آزمایش کنند."

بنابراین، وقتی مردم از آنها استفاده می کنند، به ویژه زمانی که به صورت رایگان در دسترس قرار می گیرند، می دانید، مردم بخشی از فرآیند توسعه هستند بدون اینکه لزوماً از آن آگاهی داشته باشند.

آیا شرکت های هوش مصنوعی واقعاً به اخلاق اختصاص دارند؟

شرکت‌های تولیدکننده هوش مصنوعی به طور عمومی داشتن تیم‌های اخلاقی را تبلیغ می‌کنند، اما برخی می‌گویند که آشکار شده است که این شرکت‌ها به سرعت اخلاق را در تعقیب نوآوری دور می‌زنند.

همه این تصمیمات تصمیمات انسانی آموزش سئو هستند و هرگز عاری از تعصب نخواهند بود.
 دکتر مهیری آیتکن 
همکار اخلاق در موسسه آلن تورینگ

آیتکن می گوید ما به "رویکردهایی نیاز داریم که واقعاً مسئولیت پذیری را تضمین کند".

او افزود: «و این نمی‌تواند صرفاً کاری باشد که پشت درهای بسته انجام می‌شود و هیچ‌کس نمی‌داند آیا واقعاً کاری برای رسیدگی به مشکلات یا آسیب‌های شناسایی شده انجام داده است یا خیر».

اخراج بدنام Google Timnit Gebru، یکی از رهبران تیم اخلاق هوش مصنوعی این شرکت، و مارگارت میچل، یکی دیگر از محققان برتر اخلاق، در سال 2021، منجر به بررسی دقیق تعهد شرکت های فناوری به اخلاق شد.

واشنگتن پست همچنین اخیرا گزارش داد که اخراج کارکنان در شرکت های فناوری به شدت بر تیم های اخلاقی نیز تأثیر گذاشته است.

به گفته Pistilli، آگاهی فزاینده ای از آنچه که در مورد سوگیری در هوش مصنوعی مطرح است، وجود دارد.

او می‌گوید: «من فکر می‌کنم نیاز فزاینده‌ای به افرادی از علوم اجتماعی و انسانی که به این موضوعات علاقه‌مند هستند، وجود خواهد داشت.

اما هوش مصنوعی اساساً محصول افراد است.

"ارزش ها تصمیم گیری در مورد اینکه از چه مجموعه داده هایی استفاده شود، چگونه مدل ها طراحی می شوند، در مورد روش های توسعه یا عملکردهایی که برای آنها استفاده می شود، شکل می دهند. همه این تصمیمات تصمیمات انسانی هستند و هرگز به نتیجه نمی رسند. ایتکن گفت: بدون تعصب.

 
۰ ۰
تا كنون نظري ثبت نشده است
ارسال نظر آزاد است، اما اگر قبلا در رویا بلاگ ثبت نام کرده اید می توانید ابتدا وارد شوید.