
ابزارهای هوش مصنوعی (AI) - از الگوریتمها تا نرمافزارهای مولد - دارای سوگیریهای داخلی هستند. پس چرا مشکل برطرف نشده است؟
سالهاست که تایید شده است خدمات پرده مشهد که ابزارهای هوش مصنوعی (AI)، از جمله الگوریتمهای تصمیمگیری و نرمافزارهای مولد، میتوانند سوگیریهایی شبیه انسان داشته باشند. بنابراین، چرا جدیدترین نسخههای منتشر شده همچنان آنها را به نمایش میگذارند؟
تا حدی، مدلهای زبان بزرگ مانند GPT اصلی OpenAI بر روی دادههای گسترده آموزش داده میشوند، بنابراین دانستن منابع سوگیریها میتواند پیچیده باشد.
به عنوان مثال، GPT بر روی داده های اینترنت آموزش دیده است - که جزئیات آن فاش نشده است. محققان خود OpenAI در سال 2020 گفتند : «مدلهای آموزشدیده در اینترنت دارای سوگیریهایی در مقیاس اینترنت هستند. مدلها تمایل دارند کلیشههای موجود در دادههای آموزشی خود را منعکس کنند».
هنگامی که GPT-3 آن منتشر شد، مشخص شد که کلیشه های جنسیتی، نژادپرستانه و مذهبی را بازتولید می کند.
دکتر مهیری آیتکن، کارشناس اخلاق در برنامه سیاست عمومی در موسسه آلن تورینگ، به یورونیوز گفت: «باید اقداماتی در مرحله (توسعه) برای شناسایی سوگیریهای بالقوه و کاهش و رسیدگی به آنها وجود داشته باشد .
جامعه جهانی برای شفافیت بیشتر، از جمله پشتیبانی از توسعه هوش مصنوعی منبع باز، فشار می آورد. با هدف به حداقل رساندن و رسیدگی به مسائل سوگیری، تقاضاها برای افزایش نظارت و پاسخگویی برای شرکت های فناوری بزرگ در حال رشد است.
او افزود: «من فکر میکنم که ما باید در مرحله توسعه، بررسی دقیقتر و مسئولیتپذیری بیشتری از شرکتهای بزرگ فناوری بخواهیم تا بدانیم آنها برای به حداقل رساندن و رفع تعصب چه میکنند.»
و اگر این ابزارها تا این حد ناقص هستند، چرا در وهله اول در دسترس عموم قرار گرفتند؟
آیتکن میگوید: «انتشار آنها به دلیل رقابت تجاری به جای ارزش برای جامعه بود.
ابزارهای هوش مصنوعی هنوز در حال پیشرفت هستند
تلاشهایی برای ایجاد هوش مصنوعی مسئولانهتر در حال انجام است که شامل یادگیری از نسخههای قبلی این فناوری میشود.
شرکتها تدابیری را برای جلوگیری از سوء خدمات سئوhttps://hamedmahdizadeh.ir/seo-services/ استفاده قرار دادهاند، مانند API تعدیل OpenAI که هدف آن پرچمگذاری محتوای مضر است.
دولت ایالات متحده همچنین به هماهنگ کردن یک کنوانسیون هک در سال جاری برای ارزیابی عمومی سیستمهای هوش مصنوعی کمک کرده است.
آن را به عنوان یک تمرین بزرگ "تیم قرمز" برای کشف اینکه چگونه ممکن است اشتباه پیش برود - تکنیکی که به طور گسترده در امنیت سایبری استفاده می شود، در نظر بگیرید.
Giada Pistilli، یک متخصص اخلاق در Hugging Face، به Euronews Next گفت: یکی دیگر از تکنیکهای مورد استفاده برای مقابله با سوگیری، یادگیری تقویتی از بازخورد انسانی است.
این باعث میشود که کارگران انسانی نتایج مدل هوش مصنوعی را برای دستیابی به خروجیهای طبیعیتر و کمتر مضر قضاوت کنند.
اما این فرآیندی است که تا حدودی محدود است و هر فردی تعصب خود را به همراه دارد.
برای Pistilli باید از خود بپرسیم که از این مدل ها چه می خواهیم.
"آیا ما باید جامعه را آنگونه که هست بازتولید کنیم؟ یا باید جامعه را آنگونه که دوست داریم بازتولید کنیم؟ اما اگر جواب مورد دوم باشد، طبق تصور کیست؟"
Anthropic، شرکتی که توسط محققان سابق OpenAI تأسیس شده بود، چت بات خود را به نام Claude ایجاد کرد.
برای اطمینان از اینکه کلود تا حد ممکن رفتار مناسبی خواهد داشت، آنها قانون اساسی را به آن اعطا کردند که "از منابع مختلفی از جمله اعلامیه حقوق بشر سازمان ملل، بهترین شیوه های اعتماد و ایمنی و اصول پیشنهاد شده توسط سایر آزمایشگاه های تحقیقاتی هوش مصنوعی اقتباس شده است." به وبلاگ شرکت
آیتکن گفت: "وقتی این مدلها عرضه میشوند، محصولات نهایی نیستند. بنابراین در اختیار عموم قرار میگیرند تا مردم از آنها برای اصلاح بیشتر استفاده کنند، تا آنها را برای توسعه نسخه بعدی مدل آزمایش کنند."
بنابراین، وقتی مردم از آنها استفاده می کنند، به ویژه زمانی که به صورت رایگان در دسترس قرار می گیرند، می دانید، مردم بخشی از فرآیند توسعه هستند بدون اینکه لزوماً از آن آگاهی داشته باشند.
آیا شرکت های هوش مصنوعی واقعاً به اخلاق اختصاص دارند؟
شرکتهای تولیدکننده هوش مصنوعی به طور عمومی داشتن تیمهای اخلاقی را تبلیغ میکنند، اما برخی میگویند که آشکار شده است که این شرکتها به سرعت اخلاق را در تعقیب نوآوری دور میزنند.
آیتکن می گوید ما به "رویکردهایی نیاز داریم که واقعاً مسئولیت پذیری را تضمین کند".
او افزود: «و این نمیتواند صرفاً کاری باشد که پشت درهای بسته انجام میشود و هیچکس نمیداند آیا واقعاً کاری برای رسیدگی به مشکلات یا آسیبهای شناسایی شده انجام داده است یا خیر».
اخراج بدنام Google Timnit Gebru، یکی از رهبران تیم اخلاق هوش مصنوعی این شرکت، و مارگارت میچل، یکی دیگر از محققان برتر اخلاق، در سال 2021، منجر به بررسی دقیق تعهد شرکت های فناوری به اخلاق شد.
واشنگتن پست همچنین اخیرا گزارش داد که اخراج کارکنان در شرکت های فناوری به شدت بر تیم های اخلاقی نیز تأثیر گذاشته است.
به گفته Pistilli، آگاهی فزاینده ای از آنچه که در مورد سوگیری در هوش مصنوعی مطرح است، وجود دارد.
او میگوید: «من فکر میکنم نیاز فزایندهای به افرادی از علوم اجتماعی و انسانی که به این موضوعات علاقهمند هستند، وجود خواهد داشت.
اما هوش مصنوعی اساساً محصول افراد است.
"ارزش ها تصمیم گیری در مورد اینکه از چه مجموعه داده هایی استفاده شود، چگونه مدل ها طراحی می شوند، در مورد روش های توسعه یا عملکردهایی که برای آنها استفاده می شود، شکل می دهند. همه این تصمیمات تصمیمات انسانی هستند و هرگز به نتیجه نمی رسند. ایتکن گفت: بدون تعصب.
- دوشنبه ۳۰ مرداد ۰۲ ۱۰:۵۰ ۱۱ بازديد
- ۰ نظر