سایت خبری طلا

وحشت تازه در خیابان وال استریت!

منبع: فارس


مدیران وال‌استریت دیگر شب‌ها روی صندلی‌های چرمیِ دفترشان آرام نمی‌نشینند؛ بلکه این روزها سرمایه‌های خود را به دلیل اتفاقی جدید رو به نابودی می‌بینند.


به گزارش سایت طلا،ساعت نزدیک نیمه‌شب است. در طبقه سی‌ام یکی از برج‌های مالی نیویورک، چراغ‌های اتاق هیئت‌مدیره هنوز خاموش نشده‌اند. مردی میانسال، مدیر ارشد یک بانک سرمایه‌گذاری قدیمی، روبه‌روی مانیتور عظیمی ایستاده و نمودارها را نگاه می‌کند. خطوط سبز و قرمز مثل نبضی تند روی صفحه می‌جهند.

سیستم هوش مصنوعی بانک دقایقی پیش پیشنهادی داده است: فروش سریع سهام یک شرکت بزرگ فناوری. پیشنهاد جسورانه‌ای که می‌تواند فردا میلیاردها دلار سود به جیب بزند، یا به همان اندازه زیان به بار آورد.

مدیر به صفحه خیره مانده؛ می‌داند که فردا، تصمیم او ممکن است آغازگر عصری تازه در تاریخ مالی جهان باشد ــ عصری که در آن دیگر انسان تصمیم‌گیر اصلی نیست، بلکه «مغزهای مصنوعی» هستند که آینده بازارها را رقم می‌زنند.

وعده‌های سودآورِ هوش مصنوعی برای بانک‌ها

در تالارهای معاملات و اتاق‌های جلسات مدیران ارشد بانکی، یک واژه بیش از همیشه تکرار می‌شود: «هوش مصنوعی». مدیران عامل و رؤسای فناوری بانک‌ها این فناوری را راهِ کوتاهِ دستیابی به بهره‌وری بالاتر، کاهش هزینه‌های عملیاتی و خلق محصولاتی می‌دانند که سال‌ها پیش صرفاً در رویا بود.

کمپانی‌هایی مانند مورگان استنلی و جی‌پی‌مورگان اعلام کرده‌اند ابزارهای مبتنی بر هوش مصنوعی می‌توانند ساعات کاری مشاوران مالی را آزاد کنند، پژوهش سرمایه‌گذاری را شتاب دهند و به جذب دارایی‌های جدید کمک کنند؛ مورگان استنلی صراحتاً گفته است که این ابزارها می‌توانند برای هر مشاور ده تا پانزده ساعت در هفته زمان بازآفرینند. برای هیئت‌مدیره‌ها و سرمایه‌گذاران، این ارقام معادلِ افزایش درآمد و فشار کمتر بر سودآوری است.

در همین راستا، جی‌پی‌مورگان و بانک‌های بزرگ دیگر میلیاردها دلار در زیرساخت و نرم‌افزار سرمایه‌گذاری کرده‌اند؛ آن‌ها اکنون مجرای جدیدی برای ارائهٔ خدمات سریع‌تر و ارزان‌تر به مشتریان ثروتمند می‌بینند.

برخی تحلیلگران وال‌استریت معتقدند کاربردهای هوش مصنوعی در بخش‌هایی مثل کشف تقلب، مدیریت ریسک اعتباری و مشاوره سرمایه‌گذاری، ظرف چند سال سود مؤسسات مالی را به‌نحو چشمگیری افزایش خواهد داد. این امیدِ نجات‌بخش به‌سرعت به یک روایت غالب در جلسات هیئت‌مدیره تبدیل شده است.

وقتی همه نسخه یک مدل را اجرا کنند

اما در کنار این وعده وسوسه‌انگیز، وال‌استریت هراسی بنیادین را هم حس می‌کند: خطرِ «هم‌جهت‌عمل‌کردن» بازارها. تجربه تاریخی نشان داده که الگوریتم‌های هم‌زمان و هم‌جهت می‌توانند به واکنش‌های زنجیروار و سقوط‌های ناگهانی منجر شوند؛ از جمله «سقوط ناگهانی بازار» در سال ۲۰۱۰ و فاجعهٔ شرکت نایت کپیتال در ۲۰۱۲. اکنون تصورش را بکنید که نه یکی، بلکه ده‌ها مؤسسهٔ بزرگ از یک گونه مدل پایه یا از یک ارائه‌دهندهٔ خدمات محاسبات ابری یکسان استفاده کنند، آنگاه خطای یک مدل یا اختلال در یک ارائه‌دهنده می‌تواند سیستمی را به لرزه درآورد.

نهادهای نظارتی بین‌المللی هشدار داده‌اند که تمرکزِ بیش از حد در زنجیرهٔ عرضهٔ هوش مصنوعی و به‌کارگیریِ مدل‌های مشابه می‌تواند ثبات مالی را تضعیف کند.

هیئت ثبات مالی نیز در گزارشی که پاییز ۲۰۲۴ منتشر شد، خواستار تقویتِ نظارت و گردآوری داده‌های دقیق‌تر دربارهٔ کاربردهای هوش مصنوعی در بخش مالی شد تا بتوان ریسک‌های سیستمیک را زودتر تشخیص داد.

گزارشی که هیئت منتشر کرد تصریح داشت ناتوانیِ نهادها در دیدن «تصویر کلی» از استفادهٔ هوش مصنوعی در سراسر بخش مالی می‌تواند مانع واکنش پیشگیرانه شود؛ همانچه که مدیران وال‌استریت را به‌شدت نگران کرده است.

هشدارها، مقررات و پنجره سیاست‌گذاری

ناظران و قانون‌گذاران واکنش نشان داده‌اند؛ اما سرعتِ واکنش آن‌ها با شتابِ بازار و توسعهٔ فناوری همخوان نیست. نهادهایی مانند هیئت ثبات مالی و بانک تسویه بین‌المللی به وضوح توصیه کرده‌اند که کشورها و نهادهای نظارتی باید گزارش‌دهی درباره استفاده از هوش مصنوعی را اجباری کنند، استانداردهای حاکمیت مدل را تقویت کنند و سناریوهای «آزمون ضربه» برای مدل‌ها تعریف نمایند تا از هم‌جهت‌شدنِ مخاطره‌آمیز جلوگیری شود.

این سازمان‌ها به بان‌ک‌های مرکزی و نهادهای نظارتی پیشنهاد داده‌اند که از همین امروز سازوکارهایی برای رصد و پایشِ استفاده از هوش مصنوعی در مؤسسات مالی طراحی کنند.

در ایالات متحده نیز گزارش‌ها و بررسی‌های رسمی آغاز شده‌اند: گزارش دفتر بازرسی دولت و جلسات شورای نظارت بر ثبات مالی مباحثی دربارهٔ چگونگی حکمرانیِ هوش مصنوعی در بازارهای اوراق و مشتقات مطرح کرده‌اند.

افزون بر این، مقررات مشخصی درباره «تماس‌های جعلی صوتی» و سوءاستفاده‌های مبتنی بر تولید صدا توسط هوش مصنوعی نیز در بخش‌های دیگرِ اقتصاد (مثلاً ارتباطات سیاسی) تصویب یا اجرا شده است؛ نمونه‌ای که نشان می‌دهد قانون‌گذاران به‌تدریج در حال به‌کارگیری ابزارهای حقوقی برای واکنش به پیامدهای اجتماعی و اقتصادیِ این فناوری‌اند.

جی‌پی‌مورگان، مورگان استنلی و گلدمن ساکس در تقاطع فرصت و خطر

در طبقه‌های بالای بانک‌های بزرگ، تصمیمات درباره «پیاده‌سازیِ هوش مصنوعی» حالا موضوعی روزمره است؛ اما جزئیات آن، سرنوشت شاخه‌هایی از اقتصاد را رقم می‌زند.

جی‌پی‌مورگان: «سوئیچ داخلی» و تسریع در بهره‌وری

جی‌پی‌مورگان در سال‌های اخیر سرمایه‌گذاری بزرگی در ابزارهای مبتنی بر هوش مصنوعی انجام داده است. این بانک ابزاری درونی با نام «مجموعه مدل‌های زبانی بزرگ» را به کارکنان بخش مدیریت دارایی و ثروت‌رسانی عرضه کرده که می‌تواند نگارش متون، خلاصه‌سازی اسناد و ایده‌پردازی را تسهیل کند؛ گزارش‌ها می‌گویند ده‌ها هزار کارمند به این ابزار دسترسی یافته‌اند.

مدیران جی‌پی‌مورگان می‌گویند این ابزار به‌طور چشمگیری کارایی روزانه را بالا برده و به کارکنان امکان می‌دهد وقت بیشتری برای تعامل با مشتریان پرتراز اختصاص دهند.

در عین حال، مدیرعامل جی‌پی‌مورگان، جِیمی دایمون، در نامه‌ها و سخنرانی‌های رسمی اشاره کرده است که هوش مصنوعی «می‌تواند بسیاری از مشاغل را تغییر دهد یا جایگزین کند»، اما بر برنامه‌های بازآموزی و به‌کارگیری مجدد نیروی کار نیز تأکید کرده است. این دوگانه رسمی یعنی پذیرش فناوری در ابعاد گسترده همراه با وعدهٔ حمایت از کارکنان چالشی است که بانک‌ها برای توجیه تصمیم‌های عملیاتی خود در برابر سهام‌داران و ناظران باید حل کنند.

مورگان استنلی: «ده تا پانزده ساعت»، فرصت یا بهانه کاهش نیروی انسانی؟

مورگان استنلی به‌صورت علنی گفته که ابزارهای هوش مصنوعی می‌توانند به مشاوران مالی این بانک بین «ده تا پانزده ساعت در هفته» وقت بازگردانند؛ مدیراجرایی شرکت این عدد را در سخنرانی‌ها مطرح کرده است.

این ادعا به‌سرعت در محافل مالی منتشر شد و برای هیئت‌مدیره‌ها و سرمایه‌گذاران خوش‌قلب به‌نظر رسید: وقتی مشاوران زمان بیشتری دارند، می‌توانند با مشتریان برتر کار بیشتری بکنند و درآمد بانك افزایش یابد.

اما نگاه جایگزین تردیدآمیز است: آیا این «ساعت‌های بازپس‌گرفته‌شده» در عمل به افزایش کیفیت خدمات می‌انجامد یا صرفاً به کاهش نیروی انسانی و هزینه‌ها؟ گزارش‌های نیویورک و لندن نشان داده‌اند که بانک‌ها پس از پیاده‌سازی ابزارهای اتوماسیون، به‌تدریج نیروهای پشتیبانی و تحلیل گر سطح پایین را کاهش داده‌اند.

در نتیجه، وعده صرفه‌جوییِ زمانی می‌تواند به بهانه‌ای برای «پاکسازیِ هزینه» بدل شود؛ بویژه زمانی که هیئت‌های مدیریتی تحت فشار بازده سرمایه هستند.

گلدمن ساکس: دستیار هوشمند سراسری و هشدارهای اخلاقی

گلدمن ساکس نیز در مسیر پیاده‌سازی گستردهٔ هوش مصنوعی است: در سال ۲۰۲۵ این بانک دستیار هوشمندی را برای افزایش بهره‌وری کارکنان به‌صورت سراسری راه‌اندازی کرد؛ هدف، پشتیبانی از تحقیق، اتوماسیون اسناد و افزایش سرعت تصمیم‌گیری ذکر شده است.

نظرات رسمی گلدمن ساکس و گزارش‌های تحقیقاتی این بانک نشان می‌دهد که مدیریت عالی انتظار دارد هوش مصنوعی «رشد تولید سرانه» را تقویت کند و بازار نرم‌افزار و خدمات مرتبط را گسترش دهد.

با این حال، مسئولان انطباق و اخلاق در این بانک‌ها هشدار داده‌اند که پیاده‌سازی بدون چارچوب‌های محکم می‌تواند به خطاهای تصمیم‌گیری و تبعات قانونی منجر شود. هنگامی که مدل‌های تولیدکنندهٔ متن یا پیش‌بینی، خطا کنند یا سوگیری نشان دهند، پیامدهای مالی و اعتباری می‌تواند وسیع باشد؛ از تصمیم‌های نادرست دربارهٔ اعطای وام تا اشتباه در قیمت‌گذاری مشتقات.

این خطرات، بانک‌ها را واداشته تا در کنار توسعهٔفناوری، واحدهای «حاکمیت مدل» و «آزمون‌های ضربه» ایجاد کنند.

برآوردهای شغلی و هشدارهای نهادهای بین‌المللی

چشم‌انداز کاهشیِ نیروی انسانی نیز توسط مؤسسات پژوهشی مطرح شده است. یک گزارش بلومبرگ نشان می‌دهد که احتمالاً تا ۲۰۰ هزار شغل در وال‌استریت در چند سال آینده در معرض خطر قرار دارد؛ رقم‌هایی که مدیران منابع انسانی را به تجدید نظر در استراتژی‌های استخدام و پشتیبانی وا داشته است.

این برآوردها، اگرچه ممکن است کمی محتاطانه یا خوش‌بینانه باشد، اما نشان‌دهنده پروژه‌ای بزرگ است: اتوماسیون گستردهٔ مشاغل می‌تواند ساختار هزینه و ساختار قدرت در بانک‌ها را تغییر دهد.

هشدارها فقط از داخل صنعت نیست؛ نهادهای نظارتی بین‌المللی نیز به موضوع پرداخته‌اند. هیئت ثبات مالی و بانک تسویه بین‌المللی بر لزوم رصد استفادهٔ هوش مصنوعی در بخش مالی تأکید کرده و خواستار گزارش‌دهی مؤثر، ایجاد استانداردهای حاکمیت مدل و بررسی‌های سناریویی برای تخمین تأثیرات سیستمیک شده‌اند.

دلیل این خواست روشن است: تمرکز عرضه‌کنندگان مدل و زیرساخت محاسباتی و هم‌جهت‌عملیِ گسترده می‌تواند ریسک‌های همزمان و پراکندگی گسترده را افزایش دهد.

مهار ریسک، چارچوب‌های نظارتی و سناریوهای آینده

در حالی که بانک‌ها ابزارهای هوش مصنوعی را به درون سیستم‌هایشان می‌کشانند، پرسشِ تعیین‌کننده این است: چه کسی نگهبانِ این ابزارها خواهد بود؟ چگونه تضمین کنیم که نسخه‌های هوش مصنوعی نه تنها سودبخش باشند بلکه به امکانِ فروپاشیِ ناخواسته تبدیل نشوند؟ در این بخش به سه محور کلیدی می‌نگریم: ابزارهای داخلی کنترل ریسکِ هوش مصنوعی، چارچوب‌های نظارتی ملی و بین‌المللی، و سناریوهای محتمل آینده.

ابزارهای داخلی: حاکمیت مدل، شفافیت و کنترل مستقیم

بانک‌های پیشرو هم‌اکنون واحدهای مجزایی را برای «حاکمیت مدل» ایجاد کرده‌اند؛ واحدهایی که وظیفه دارند کارکرد موتورهای هوش مصنوعی را کنترل کنند، سنجش کیفیت داده‌ها را انجام دهند و «آزمون‌های ضربه‌پذیری» برای مدل‌ها اجرا کنند.

برخی از این مدل‌ها، مانند سامانه‌هایی که در کشف تقلب یا اعتبارسنجی وام به کار می‌روند، به‌طور مداوم باید تحت ارزیابی قرار گیرند تا خطاهای خودبینا یا سوگیری در آن‌ها کاهش یابد. این نوع کنترل داخلی پیش‌شرطِ ورود بانک به عرصهٔ هوش مصنوعی امن قلمداد شده است.

در آمریکا، نهادهای بانکی راهنمایی‌هایی دربارهٔ مدیریت ریسک مدل ارائه کرده‌اند که تأکید بر ارزیابی دقیق کیفیت داده، اعتبارسنجی مدل و شفافیت عملکرد دارد؛ اما برخی از بررسی‌های گزارش وزارت خزانه‌داری نشان داده‌اند که بسیاری بانک‌ها هنوز چارچوب قانونی کاملاً منسجم در مورد استفاده از هوش مصنوعی ندارند.

گزارش خزانه‌داری آمریکا درباره هوش مصنوعی در خدمات مالی می‌گوید برخی از بانک‌ها معتقدند راهنمایی‌های موجود ممکن است نیازها را برآورده کنند، اما برخی دیگر خواهان قوانین جدیدی هستند تا این چارچوب‌ها را به کلیه شرکت‌های مالی نیز تعمیم دهند.

بانک‌ها همچنین در حال به‌کارگیری هوش مصنوعی برای نظارت بر خودِ عملیات‌شان هستند: استفاده از ابزارهایی که معاملات غیرمعمول یا رفتارهای وابسته به الگوریتم را کشف می‌کنند (مثلاً انحرافات در الگوهای معاملاتی). این فناوری می‌تواند نقش مخالف را ایفا کند؛ نه فقط در تولید سود بلکه به‌صورت نگهبانِ ریسک داخلی.

برخی تحلیل‌گران آن را «هوش مصنوعی علیه هوش مصنوعی» می‌نامند: سیستمی که رفتار مدل‌های دیگر را پایش می‌کند. در مقاله‌ای تحلیلی آمده است که ابزارهای مولد جدید می‌توانند برخی از وظایف نظارتی را خودکار کنند، از جمله تطبیق مقررات و تحلیل تراکنش در لحظه.

با این همه، چالشی که بسیار برجسته می‌شود، «شفافیت مدل» و «قابلیت توضیح‌پذیری» است. بانک‌ها باید بتوانند توضیح دهند که یک مدل چگونه به یک تصمیم رسیده است؛ به‌ویژه در مواردی که اشتباه می‌کند. بدون این قابلیت، مسئولیت تصمیم‌گیری ممکن است به شکلی غیرموجه بر دوش افراد انسانی بیفتد یا نظام حقوقی بتواند ادعا کند که خطا از ناحیهٔ مدل بوده و مسئولیتی وجود ندارد.

نظارت ملی و بین‌المللی: قوانین، دستورالعمل‌ها و پرونده‌ها

در سطح بین‌المللی، هیئت ثبات مالی (FSB) در نوامبر ۲۰۲۴ گزارشی را منتشر کرد که بررسی تأثیر هوش مصنوعی بر ثبات مالی است. این گزارش چهار حوزهٔ اصلی‌یی که می‌تواند ریسک ایجاد کند را برشمرده است: تکیه بر ارائه‌دهندگان ثالث (مثل سرویس‌دهنده‌های ابری و سخت‌افزار)، همگرایی بازارها، آسیب‌پذیری سایبری، و ضعف در حاکمیت مدل و کیفیت داده‌ها.

همچنین هشدار داده است که بدون کنترل مناسب، هوش مصنوعی ممکن است تقلب مالی، جعل هویت مصنوعی و حتی نوسانات ناگهانی بازار  را تشدید کند.

این نهاد توصیه کرده است که کشورها شکاف داده‌ای (از قبیل نبود گزارش دقیق از پذیرش هوش مصنوعی در مؤسسات مالی) را پر کنند، چارچوب‌های نظارتی را بازبینی نمایند و توانمندی‌های نظارتی خود را تقویت کنند تا بتوانند به‌موقع سوءکارکردها را شناسایی و مداخله نمایند.

در اروپا، ناظر اوراق و بازار (ESMA) اعلام کرده است که بانک‌ها و شرکت‌های سرمایه‌گذاری نمی‌توانند مسئولیت تصمیمات مبتنی بر هوش مصنوعی را به مدل‌ها واگذار کنند؛ هیئت مدیره‌ها موظفند بر استفاده از AI نظارت کنند و تضمین نمایند که منافع مشتریان در اولویت باشد. حتی اگر ابزار AI از یک ارائه‌دهنده خارجی خریده شده باشد، مسئولیت آن بر عهدهٔ مدیریت است.

در آمریکا، چندین نهاد فدرال از جمله کمیسیون بورس و اوراق بهادار، دفتر کنترل‌کننده ارز، و آژانس‌های حفاظت از مصرف‌کننده، راهنمایی‌هایی صادر کرده‌اند که استفاده از هوش مصنوعی باید تحت اصولی مانند شفافیت، انصاف و مسئولیت‌پذیری باشد. قانونی شدن الزام نسبت به افشای روش‌های هوش مصنوعی هنوز در حال بحث است.

در اسناد نظارتی بانکی، نیز توصیه شده که بانک‌ها نباید از رویکرد «تطبیق صرف با مقررات» (check-the-box) به استفادهٔ فعالانه و پیش‌بینانهٔ هوش مصنوعی منتقل شوند. بانک‌ها باید نشان دهند که داده‌ها درست، کیفیت دارند، و مدل‌ها تحت کنترل و پایش‌اند، نه اینکه صرفاً گزارش‌هایی برای ناظران تولید نمایند.

سناریوهای آینده: بقا، تنظیم یا بحران؟

وال‌استریت در نقطه‌ای ایستاده است که سه سناریوی کلی برای آینده محتمل به نظر می‌رسد:

سناریوی نخست: بقا از طریق تنوع و کنترل

بانک‌هایی موفق خواهند بود که تنوع مدل به کار گیرند (نه همه همان مدل پایه)، کنترل‌های قویِ داخلی بسازند و وعدهٔ هوش مصنوعی را با تدریج و ایمنی پیاده کنند. آن‌ها ممکن است محصولاتی نوآورانه ارائه دهند، خدمات شخصی‌شده‌تر و با هزینه کمتر، و در عین حال ریسک را مدیریت کنند. نهادهای نظارتی نیز با همکاری بین‌المللی چارچوب‌هایی تنظیم می‌کنند که نوآوری را محدود نکند اما ریسک سیستمیک را کاهش دهد. این سناریو به تعادل بین سود و ایمنی میانجامد.

سناریوی دوم: آسیب تصادفی و شوک همگانی

اگر خطایی در مدل پایه یا اختلال در یک ارائه‌دهنده محاسبات ابری رخ دهد، ممکن است شوک زنجیره‌ای به بازارها وارد شود. مدل‌های هم‌جهت و وابستگی شدید به زیرساخت‌های مشترک می‌تواند باعث شود که خطا در یک نقطه، کل سیستم را تحت تأثیر قرار دهد. در این حالت، ناظران مجبور به مداخله اضطراری شده، بانک‌ها زیان گسترده ببینند و اعتماد به کل بازار ضربه بخورد.

سناریوی سوم: تنظیم سخت و انسداد نوآوری

اگر رخداد نامطلوبی مانند فسادی ناشی از هوش مصنوعی یا اشتباه بزرگ رخ دهد، امکان دارد قانون‌گذاران مجبور شوند مقررات بسیار سختی وضع کنند یعنی الزام‌های توضیح‌پذیری، محدودیت‌های مدل، کنترل بر ارائه‌دهندگان ثالث که ممکن است عملکرد سریع فناوری را کند سازد یا بانک‌ها را به بازگشت به روش‌های سنتی سوق دهد. چنین بازگشتی ممکن است مزیت رقابتی را محدود کند ولی از مخاطرهٔ بزرگ‌تر جلوگیری کند.