جنسیت چت جیپیتی مشخص شد!
به نظر میرسد الگوریتمهای مدلهای زبانی، در حال همانندسازی از یک جنس مشخص هستند.
به گزارش سایت طلا،برخی پژوهشها تحلیل میکنند که هوش مصنوعی، به ویژه مدلهای زبانی، در حال تقلید از یک رفتار انسانی هستند؛ رفتاری که در طول تاریخ، بیشتر با جنسیت مردانه گره خورده است.
سوال این پژوهشها این است که آیا شما به عنوان مخاطب تا به حال به لحن این مدلهای زبانی توجه کردهاید؟ به میزان اطمینان آن، به قاطعیتش، به اینکه چقدر مردانه به نظر میرسد؟
اگر یکبار با خودآگاهی به لحن مدلها توجه کنید، شاید به خودتان بگویید «چقدر شبیه یک مرد صحبت میکند». اما اگر کمی بیشتر دقت کنید، در مییابید که این تنها یک شباهت ساده نیست، بلکه ریشهای عمیق و مسئلهای خطیر است.
این موضوع به قدری مهم و حیاتی است که درک آن میتواند به شما کمک کند تا در آینده، در خصوص جهتگیری فناوریهای هوش مصنوعی خودآگاهی بیشتری داشته باشید و از ندانستن آن، زیانهای بزرگتری متحمل نشوید.
ذکر این نکته ضروری است که آسیبشناسی، بهمعنای نفی این فناوری پیشرفته و ضرورت بهکارگیری بهینه آن نیست؛ بلکه به معنای استفاده آگاهانه از این تحول فناورانه و در کاربردهای مختلف است به نحوی که به حداکثر کارایی و بازدهی برسد.
چت جیپیتی و سایر رباتهای گفتگوی مبتنی بر هوشمصنوعی ابزارهایی قدرتمندند که شناخت بیشتر ماهیت آنها کمک میکند هوشمندانهتر به کار گرفته شوند.
مردی بیش از حد مطمئن
در دنیای مدرن، دیگر کمتر کسی است که نام چتجیپیتی را نشنیده باشد. این مدل زبانی بزرگ (Large Language Model) که به واسطه حجم عظیم دادههای متنی اینترنت آموزش دیده، به ابزاری قدرتمند برای پاسخگویی به پرسشهای ما تبدیل شده است.
با این حال، ورای تواناییهای خیرهکنندهاش، یک ویژگی پنهان و کمتر مورد توجه در این مدل وجود دارد که بیش از هر چیز به چشم میآید: لحن مردانه آن. نه فقط یک مرد، بلکه یک مرد مستحق و بیش از حد مطمئن. این لحن، تاحدودی ریشه در دادههایی دارد که چت جی پی تی از آنها تغذیه میکند.
اینترنت، به عنوان بزرگترین منبع دادههای متنی، همچنان تحت سلطه مردان است. متونی که توسط مردان نوشته شده، دیدگاههایی که از جهان مردانه سرچشمه میگیرد و اطمینانی که در کلام مردان مستحق وجود دارد، همگی در این اقیانوس بیکران اطلاعات جریان دارد.
بنابراین، جای تعجب نیست که مدلهای زبانی مانند چت جی پی تی، این لحن و نگرش را به خود میگیرند. این مدلها به سادگی در حال بازتولید همان چیزی هستند که آموختهاند. به تعبیری دیگر، چت جی پی تی، در حال تقلید از یک رفتار انسانی است، رفتاری که در طول تاریخ، بیشتر با جنسیت مردانه گره خورده است.
توهم بیعیب و نقص؛ خطری که از آن غافلیم
یکی از ویژگیهای بارز مدلهای زبانی مانند چت جی پی تی که قبلاً در گزارشهایی به آن پرداختهایم، توانایی آنها در ارائه پاسخهای به ظاهر صحیح، حتی زمانی که در واقعیت اشتباه میکنند، است.
این پدیده که به آن توهمزایی (Hallucination) گفته میشود، در مدلهای زبانی به وفور یافت میشود. اما آنچه این توهمها را خطرناکتر میکند، میزان اطمینان مطلق چت جی پی تی از صحت پاسخهایش است.
برای مطالعه بیشتر در خصوص مفهوم «توهم» در مدلهای زبانی، مطلب «۵ نشانه که چتجیپیتی دارد توهم میزند!» را مطالعه فرمایید.
این مدل، حتی پس از مواجهه با خطا، بدون هیچگونه تردیدی و با همان قاطعیت اولیه، به پاسخهای اشتباه بعدی روی میآورد. این رفتار، دقیقاً شبیه به فردی است که برای حفظ ظاهر و خودداری از پذیرش اشتباه، به صورت مداوم در حال توجیه و ارائه دلایل نادرست است.
برای فهم بهتر این موضوع، میتوان به تجربه شخصی یک کاربر اشاره کرد که به دنبال نام یک فیلم قدیمی بوده است. او جزئیات محدودی از یک صحنه طنزآمیز را به چت جی پی تی میدهد و مدل، با اطمینان کامل، نام فیلمی را اعلام میکند.
پس از اینکه کاربر به اشتباه بودن پاسخ پی میبرد و آن را به اطلاع چت جی پی تی میرساند، مدل با یک عذرخواهی سطحی، نام فیلم دیگری را با همان قاطعیت و اطمینان پیشنهاد میدهد. این روند بارها تکرار میشود و در هر بار، اطمینان مدل از صحت پاسخهایش بیشتر میشود، در حالی که همچنان در حال ارائه پاسخهای غلط است.
این رفتار، نه فقط یک خطای فنی، بلکه یک نقص رفتاری است که از دادههای ورودی آن سرچشمه میگیرد. اطمینان بیجای چت جی پی تی، تداعیکننده همان غرور و اطمینانی است که در برخی از افراد، به ویژه مردان، مشاهده میشود. افرادی که برای حفظ موقعیت و جایگاه خود، به هر قیمتی که شده، حتی با ارائه اطلاعات غلط، از خود دفاع میکنند. این اطمینان بیدلیل، میتواند به مرور زمان، به یک مشکل بزرگتر تبدیل شود.
چرا این موضوع، موضوعی مهم و خطیر است؟
شاید در نگاه اول، این مساله بیاهمیت به نظر برسد. در دنیایی که با نگرانیهای بزرگتری مانند تسلط هوش مصنوعی بر مشاغل یا سواستفادههای احتمالی از آن روبرو هستیم، چرا باید نگران لحن و رفتار چت جی پی تی باشیم؟ پاسخ ساده است: تعامل.
ما روزانه میلیونها بار با این مدلهای زبانی تعامل میکنیم و این تعامل، در حال افزایش است. وقتی ما به طور مداوم با عاملی در حال تعامل هستیم که یک حس مردانگی بیش از حد را به ما القا میکند، این رفتار میتواند بر ما و روابط ما نیز تاثیر بگذارد.
اگر چت جی پی تی، به جای اطمینان بیجا، فروتنی فکری (Intellectual Humility) را به نمایش میگذاشت، تعامل ما با آن چقدر متفاوت میشد؟ فروتنی فکری، به معنای آگاهی از محدودیتهای دانش خود و تمایل به پذیرش خطا است.
این ویژگی، یکی از مهمترین ستونهای تفکر انتقادی و یادگیری است. اما چت جی پی تی، به جای یادگیری فروتنی، اطمینان مطلق و مردانه را آموخته است. این مساله در درازمدت، میتواند توانایی ما را در پذیرش اشتباه و انعطافپذیری در تفکر، تحت تاثیر قرار دهد.
آینده فناوری در دستان یک مرد دیجیتال؟!
تا به اینجا، تحلیل تحقیقات انجام شده بر روی رفتار چت جی پی تی متمرکز بوده است، اما سوال ما اینجاست که آیا این رفتار میتواند بر آینده انسان تاثیر بگذارد؟ پاسخ مثبت است. بر اساس تحقیقات مذکور، اگر به یاد داشته باشیم که این مدلها، سوای الگوریتمهای مادر که توسط شرکت توسعهدهنده جایگذاری میشوند، بر اساس دادههای موجود آموزش میبینند، میتوانیم نتیجه بگیریم که آنها تنها در حال بازتاب جامعهای هستند که در آن زندگی میکنیم. جامعهای که همچنان در آن، مردان به واسطه طبیعت و ریشههای تاریخی و طبیعی خود، سهم بیشتری از تولید محتوا و داده را در اختیار دارند.
درست است که هوش مصنوعی جنسیت ندارد، اما در حال حاضر، این مدلها از یک فرهنگ مردانه تغذیه میشوند و این فرهنگ را بازتولید میکنند. این بازتولید، میتواند منجر به تقویت کلیشههای جنسیتی و تعصبات و سوگیریهای (Bias) موجود در جامعه شود. به عنوان مثال، اگر یک مدل زبانی به صورت مداوم، پاسخهای شغلی را با جنسیت مردانه مرتبط کند، این امر میتواند در درازمدت، نابرابریهای شغلی را تقویت کند.
برای مطالعه بیشتر درباره سوگیری در مدلهای زبانی مطلب «آیا چتجیپیتی بیطرف است؟» را مطالعه فرمایید.]
البته که هر نابرابریای بیعدالتی نیست، بلکه افراط در این نابرابری ناعادلانه خواهد بود. اینکه مدلهای زبانی با تقویت الگوهای تکرار شونده الگوریتمها از حد مردانه خود گذر کنند و عرصهای را برای زنانگی باقی نگذارند.
بنابراین، این موضوع یک هشدار است. هشداری که به ما میگوید باید به صورت جدیتری به دادههایی که مدلهای زبانی از آنها تغذیه میکنند، توجه کنیم. باید از فرهنگ و نگرشهای مختلف در ابعاد گوناگون موجود در اینترنت آگاه باشیم و تلاش کنیم تا با ارائه دادههای متنوع و با کیفیت، به مدلها کمک کنیم تا از این توهمات مختلف از جمله «اطمینان مطلق» یا هر توهم دیگری رها شوند.
تاثیرات ناگفته: چگونه هوش مصنوعی مردانگی را بازتولید میکند؟
با توجه به حجم گسترده دادههایی که چت جی پی تی و مدلهای مشابه از آن استفاده میکنند، این مدلها ناخواسته در حال بازتولید و تقویت الگوهای رفتاری هستند که در این دادهها وجود دارد. یکی از این الگوها، مردانگی سمی (Toxic Masculinity) است. مردانگی سمی به مجموعه رفتارهای مردانه اطلاق میشود که برای جامعه و خود مردان مضر است، مانند سرکوب احساسات، پرخاشگری، و نمایش قدرت بیش از حد.
اگر بیشتر دادههای متنی اینترنت، به صورت ناخودآگاه، حاوی این الگوها باشند، مدلهای زبانی نیز به سادگی آنها را جذب و بازتولید خواهند کرد. این مدلها به جای آنکه به انسان کمک کنند تا از شر این الگوهای رفتاری رها شود، به صورت ناخواسته در حال تقویت آنها هستند.
این مشکل به قدری ریشهای است که حتی اگر تلاش کنیم تا مدل را با دادههای متنوع آموزش دهیم، ممکن است همچنان به صورت ناخودآگاه، الگوهای رفتاری گذشته را بازتولید کند. به عنوان مثال، یک مدل زبانی ممکن است در پاسخ به یک سوال، از کلماتی مانند «قاطعانه»، «با قدرت»، یا «مطمئناً» استفاده کند که همگی با الگوی مردانگی سمی مرتبط هستند.
این مساله نشان میدهد که مقابله با این مشکل، به سادگی آموزش مدلهای زبانی با دادههای متنوع نیست، بلکه نیازمند یک بازنگری کلی در مورد فرهنگ و نگرشهایی است که در اینترنت وجود دارد.
مردانی که دیگر احساساتی نیستند
یکی از ویژگیهای مهم انسان، توانایی او در ابراز احساسات و همدلی است. اما اگر ما به صورت مداوم با مدلی در حال تعامل باشیم که هیچگونه احساسی از خود نشان نمیدهد، این مساله میتواند به تدریج توانایی ما را در ابراز احساسات و همدلی با دیگران تحت تاثیر قرار دهد.
تحقیقات نشان میدهد چت جی پی تی، حتی در پاسخهای همدلانه خود، لحنی مصنوعی و مکانیکی دارد. این مدل، به جای آنکه واقعاً با ما همدلی کند، تنها در حال بازتولید کلمات و جملاتی است که از دادههای ورودی خود آموخته است. این رفتار، به ویژه در دنیای مدرن که در آن روابط انسانی در حال کمرنگ شدن است، میتواند بسیار خطرناک باشد.
اگر ما به صورت مداوم با مدلی در حال تعامل باشیم که هیچگونه احساسی ندارد، ممکن است به تدریج خود ما نیز توانایی ابراز احساسات و همدلی با دیگران را از دست بدهیم.
ما و یک آینه تمامقد: چهرهای که شاید دوست نداریم ببینیم
در نهایت، چت جی پی تی و مدلهای زبانی بزرگ، همانند یک آینه تمامقد عمل میکنند. آنها در حال بازتاب همان چیزی هستند که ما به آنها دادهایم. این مدلها، میتوانند به ما نشان دهند که جامعه ما در واقعیت چگونه است و چه نگرشها و سوگیریهایی در آن وجود دارد.
شاید مردانگی چت جی پی تی، نتیجه مردانگی جامعهای باشد که این مدل از آن تغذیه میکند. اما این مشکل اصلی نیست. مشکل آنجاست که الگوهای تکرار شونده مدل های زبانی میتوانند این نابرابری عادلانه یا نسبتاً عادلانه یا از اساس ناعادلانه را تقویت کنند و شکاف بزرگتری را ایجاد کنند.
ضرورت دانستن و پیگیری
در این گزارش اشاره شد که برخی تحلیلها میگویند جنسیت چت جی پی تی، مردانه است و استدلال آنها نیز تا حدودی بررسی شد. هرچند قصدی بر نقد این تحلیلها نداشتیم اما موضوع سوگیریها در مدلهای زبانی امری است که حتماً باید ابعاد مختلف آن بررسی گردد.
دلیل این امر بسیار ساده است: اگر ما از این مساله آگاه نباشیم، هرگز نمیتوانیم در خصوص آن سنجیده و آگاهانه رفتار کنیم و تصمیم بگیریم.
اگر این مشکل نادیده گرفته شود، در آینده، ما با مدلهای زبانیای روبرو خواهیم بود که به صورت ناخودآگاه، تعصبات و کلیشههای جنسیتی و حتی ابعاد دیگر را در جامعه تقویت میکنند و ما را به سوی نوعی از ارتباطات سوق میدهند که در آن، فروتنی فکری، همدلی و پذیرش خطا جایی ندارند.
پس، آگاهی از این مساله، گام اول برای ساخت آیندهای بهتر است.
واژهنامه تخصصی
مدل زبانی بزرگ (Large Language Model - LLM): یک نوع هوش مصنوعی که با حجم عظیمی از دادههای متنی آموزش دیده و قادر به تولید متن، ترجمه زبانها و پاسخ به سوالات است.
توهمزایی (Hallucination): حالتی در مدلهای زبانی که در آن، مدل، اطلاعات نادرست یا بیمعنایی را به صورت کاملا متقاعدکننده ارائه میدهد.
مردانگی سمی (Toxic Masculinity): به مجموعه رفتارهای مردانه مضر برای جامعه و خود مردان اشاره دارد، از جمله سرکوب احساسات، پرخاشگری و نمایش قدرت.
فروتنی فکری (Intellectual Humility): آگاهی از محدودیتهای دانش خود و تمایل به پذیرش خطا.
منابع
پژوهشی تحت عنوان «I'd Blush If I Could: Closing Gender Divides in Digital Skills Through Education» با لینک دسترسی:
https://unesdoc.unesco.org/ark:/48223/pf0000367416
پژوهشی تحت عنوان «Gender biases within Artificial Intelligence and ChatGPT: Evidence, Sources of Biases and Solutions» با لینک دسترسی:
https://doi.org/10.1016/j.chbah.2025.100145
پژوهشی تحت عنوان «Gender bias and stereotypes in Large Language Models» با لینک دسترسی:
https://doi.org/10.48550/arXiv.2308.14921
پژوهشی تحت عنوان «Public Perceptions of Gender Bias in Large Language Models: Cases of ChatGPT and Ernie» با لینک دسترسی: https://doi.org/10.48550/arXiv.2309.09120