به گزارش سایت طلا،ساعت نزدیک نیمهشب است. در طبقه سیام یکی از برجهای مالی نیویورک، چراغهای اتاق هیئتمدیره هنوز خاموش نشدهاند. مردی میانسال، مدیر ارشد یک بانک سرمایهگذاری قدیمی، روبهروی مانیتور عظیمی ایستاده و نمودارها را نگاه میکند. خطوط سبز و قرمز مثل نبضی تند روی صفحه میجهند.
سیستم هوش مصنوعی بانک دقایقی پیش پیشنهادی داده است: فروش سریع سهام یک شرکت بزرگ فناوری. پیشنهاد جسورانهای که میتواند فردا میلیاردها دلار سود به جیب بزند، یا به همان اندازه زیان به بار آورد.
مدیر به صفحه خیره مانده؛ میداند که فردا، تصمیم او ممکن است آغازگر عصری تازه در تاریخ مالی جهان باشد ــ عصری که در آن دیگر انسان تصمیمگیر اصلی نیست، بلکه «مغزهای مصنوعی» هستند که آینده بازارها را رقم میزنند.
وعدههای سودآورِ هوش مصنوعی برای بانکها
در تالارهای معاملات و اتاقهای جلسات مدیران ارشد بانکی، یک واژه بیش از همیشه تکرار میشود: «هوش مصنوعی». مدیران عامل و رؤسای فناوری بانکها این فناوری را راهِ کوتاهِ دستیابی به بهرهوری بالاتر، کاهش هزینههای عملیاتی و خلق محصولاتی میدانند که سالها پیش صرفاً در رویا بود.
کمپانیهایی مانند مورگان استنلی و جیپیمورگان اعلام کردهاند ابزارهای مبتنی بر هوش مصنوعی میتوانند ساعات کاری مشاوران مالی را آزاد کنند، پژوهش سرمایهگذاری را شتاب دهند و به جذب داراییهای جدید کمک کنند؛ مورگان استنلی صراحتاً گفته است که این ابزارها میتوانند برای هر مشاور ده تا پانزده ساعت در هفته زمان بازآفرینند. برای هیئتمدیرهها و سرمایهگذاران، این ارقام معادلِ افزایش درآمد و فشار کمتر بر سودآوری است.
در همین راستا، جیپیمورگان و بانکهای بزرگ دیگر میلیاردها دلار در زیرساخت و نرمافزار سرمایهگذاری کردهاند؛ آنها اکنون مجرای جدیدی برای ارائهٔ خدمات سریعتر و ارزانتر به مشتریان ثروتمند میبینند.
برخی تحلیلگران والاستریت معتقدند کاربردهای هوش مصنوعی در بخشهایی مثل کشف تقلب، مدیریت ریسک اعتباری و مشاوره سرمایهگذاری، ظرف چند سال سود مؤسسات مالی را بهنحو چشمگیری افزایش خواهد داد. این امیدِ نجاتبخش بهسرعت به یک روایت غالب در جلسات هیئتمدیره تبدیل شده است.
وقتی همه نسخه یک مدل را اجرا کنند
اما در کنار این وعده وسوسهانگیز، والاستریت هراسی بنیادین را هم حس میکند: خطرِ «همجهتعملکردن» بازارها. تجربه تاریخی نشان داده که الگوریتمهای همزمان و همجهت میتوانند به واکنشهای زنجیروار و سقوطهای ناگهانی منجر شوند؛ از جمله «سقوط ناگهانی بازار» در سال ۲۰۱۰ و فاجعهٔ شرکت نایت کپیتال در ۲۰۱۲. اکنون تصورش را بکنید که نه یکی، بلکه دهها مؤسسهٔ بزرگ از یک گونه مدل پایه یا از یک ارائهدهندهٔ خدمات محاسبات ابری یکسان استفاده کنند، آنگاه خطای یک مدل یا اختلال در یک ارائهدهنده میتواند سیستمی را به لرزه درآورد.
نهادهای نظارتی بینالمللی هشدار دادهاند که تمرکزِ بیش از حد در زنجیرهٔ عرضهٔ هوش مصنوعی و بهکارگیریِ مدلهای مشابه میتواند ثبات مالی را تضعیف کند.
هیئت ثبات مالی نیز در گزارشی که پاییز ۲۰۲۴ منتشر شد، خواستار تقویتِ نظارت و گردآوری دادههای دقیقتر دربارهٔ کاربردهای هوش مصنوعی در بخش مالی شد تا بتوان ریسکهای سیستمیک را زودتر تشخیص داد.
گزارشی که هیئت منتشر کرد تصریح داشت ناتوانیِ نهادها در دیدن «تصویر کلی» از استفادهٔ هوش مصنوعی در سراسر بخش مالی میتواند مانع واکنش پیشگیرانه شود؛ همانچه که مدیران والاستریت را بهشدت نگران کرده است.
هشدارها، مقررات و پنجره سیاستگذاری
ناظران و قانونگذاران واکنش نشان دادهاند؛ اما سرعتِ واکنش آنها با شتابِ بازار و توسعهٔ فناوری همخوان نیست. نهادهایی مانند هیئت ثبات مالی و بانک تسویه بینالمللی به وضوح توصیه کردهاند که کشورها و نهادهای نظارتی باید گزارشدهی درباره استفاده از هوش مصنوعی را اجباری کنند، استانداردهای حاکمیت مدل را تقویت کنند و سناریوهای «آزمون ضربه» برای مدلها تعریف نمایند تا از همجهتشدنِ مخاطرهآمیز جلوگیری شود.
این سازمانها به بانکهای مرکزی و نهادهای نظارتی پیشنهاد دادهاند که از همین امروز سازوکارهایی برای رصد و پایشِ استفاده از هوش مصنوعی در مؤسسات مالی طراحی کنند.
در ایالات متحده نیز گزارشها و بررسیهای رسمی آغاز شدهاند: گزارش دفتر بازرسی دولت و جلسات شورای نظارت بر ثبات مالی مباحثی دربارهٔ چگونگی حکمرانیِ هوش مصنوعی در بازارهای اوراق و مشتقات مطرح کردهاند.
افزون بر این، مقررات مشخصی درباره «تماسهای جعلی صوتی» و سوءاستفادههای مبتنی بر تولید صدا توسط هوش مصنوعی نیز در بخشهای دیگرِ اقتصاد (مثلاً ارتباطات سیاسی) تصویب یا اجرا شده است؛ نمونهای که نشان میدهد قانونگذاران بهتدریج در حال بهکارگیری ابزارهای حقوقی برای واکنش به پیامدهای اجتماعی و اقتصادیِ این فناوریاند.
جیپیمورگان، مورگان استنلی و گلدمن ساکس در تقاطع فرصت و خطر
در طبقههای بالای بانکهای بزرگ، تصمیمات درباره «پیادهسازیِ هوش مصنوعی» حالا موضوعی روزمره است؛ اما جزئیات آن، سرنوشت شاخههایی از اقتصاد را رقم میزند.
جیپیمورگان: «سوئیچ داخلی» و تسریع در بهرهوری
جیپیمورگان در سالهای اخیر سرمایهگذاری بزرگی در ابزارهای مبتنی بر هوش مصنوعی انجام داده است. این بانک ابزاری درونی با نام «مجموعه مدلهای زبانی بزرگ» را به کارکنان بخش مدیریت دارایی و ثروترسانی عرضه کرده که میتواند نگارش متون، خلاصهسازی اسناد و ایدهپردازی را تسهیل کند؛ گزارشها میگویند دهها هزار کارمند به این ابزار دسترسی یافتهاند.
مدیران جیپیمورگان میگویند این ابزار بهطور چشمگیری کارایی روزانه را بالا برده و به کارکنان امکان میدهد وقت بیشتری برای تعامل با مشتریان پرتراز اختصاص دهند.
در عین حال، مدیرعامل جیپیمورگان، جِیمی دایمون، در نامهها و سخنرانیهای رسمی اشاره کرده است که هوش مصنوعی «میتواند بسیاری از مشاغل را تغییر دهد یا جایگزین کند»، اما بر برنامههای بازآموزی و بهکارگیری مجدد نیروی کار نیز تأکید کرده است. این دوگانه رسمی یعنی پذیرش فناوری در ابعاد گسترده همراه با وعدهٔ حمایت از کارکنان چالشی است که بانکها برای توجیه تصمیمهای عملیاتی خود در برابر سهامداران و ناظران باید حل کنند.
مورگان استنلی: «ده تا پانزده ساعت»، فرصت یا بهانه کاهش نیروی انسانی؟
مورگان استنلی بهصورت علنی گفته که ابزارهای هوش مصنوعی میتوانند به مشاوران مالی این بانک بین «ده تا پانزده ساعت در هفته» وقت بازگردانند؛ مدیراجرایی شرکت این عدد را در سخنرانیها مطرح کرده است.
این ادعا بهسرعت در محافل مالی منتشر شد و برای هیئتمدیرهها و سرمایهگذاران خوشقلب بهنظر رسید: وقتی مشاوران زمان بیشتری دارند، میتوانند با مشتریان برتر کار بیشتری بکنند و درآمد بانك افزایش یابد.
اما نگاه جایگزین تردیدآمیز است: آیا این «ساعتهای بازپسگرفتهشده» در عمل به افزایش کیفیت خدمات میانجامد یا صرفاً به کاهش نیروی انسانی و هزینهها؟ گزارشهای نیویورک و لندن نشان دادهاند که بانکها پس از پیادهسازی ابزارهای اتوماسیون، بهتدریج نیروهای پشتیبانی و تحلیل گر سطح پایین را کاهش دادهاند.
در نتیجه، وعده صرفهجوییِ زمانی میتواند به بهانهای برای «پاکسازیِ هزینه» بدل شود؛ بویژه زمانی که هیئتهای مدیریتی تحت فشار بازده سرمایه هستند.
گلدمن ساکس: دستیار هوشمند سراسری و هشدارهای اخلاقی
گلدمن ساکس نیز در مسیر پیادهسازی گستردهٔ هوش مصنوعی است: در سال ۲۰۲۵ این بانک دستیار هوشمندی را برای افزایش بهرهوری کارکنان بهصورت سراسری راهاندازی کرد؛ هدف، پشتیبانی از تحقیق، اتوماسیون اسناد و افزایش سرعت تصمیمگیری ذکر شده است.
نظرات رسمی گلدمن ساکس و گزارشهای تحقیقاتی این بانک نشان میدهد که مدیریت عالی انتظار دارد هوش مصنوعی «رشد تولید سرانه» را تقویت کند و بازار نرمافزار و خدمات مرتبط را گسترش دهد.
با این حال، مسئولان انطباق و اخلاق در این بانکها هشدار دادهاند که پیادهسازی بدون چارچوبهای محکم میتواند به خطاهای تصمیمگیری و تبعات قانونی منجر شود. هنگامی که مدلهای تولیدکنندهٔ متن یا پیشبینی، خطا کنند یا سوگیری نشان دهند، پیامدهای مالی و اعتباری میتواند وسیع باشد؛ از تصمیمهای نادرست دربارهٔ اعطای وام تا اشتباه در قیمتگذاری مشتقات.
این خطرات، بانکها را واداشته تا در کنار توسعهٔفناوری، واحدهای «حاکمیت مدل» و «آزمونهای ضربه» ایجاد کنند.
برآوردهای شغلی و هشدارهای نهادهای بینالمللی
چشمانداز کاهشیِ نیروی انسانی نیز توسط مؤسسات پژوهشی مطرح شده است. یک گزارش بلومبرگ نشان میدهد که احتمالاً تا ۲۰۰ هزار شغل در والاستریت در چند سال آینده در معرض خطر قرار دارد؛ رقمهایی که مدیران منابع انسانی را به تجدید نظر در استراتژیهای استخدام و پشتیبانی وا داشته است.
این برآوردها، اگرچه ممکن است کمی محتاطانه یا خوشبینانه باشد، اما نشاندهنده پروژهای بزرگ است: اتوماسیون گستردهٔ مشاغل میتواند ساختار هزینه و ساختار قدرت در بانکها را تغییر دهد.
هشدارها فقط از داخل صنعت نیست؛ نهادهای نظارتی بینالمللی نیز به موضوع پرداختهاند. هیئت ثبات مالی و بانک تسویه بینالمللی بر لزوم رصد استفادهٔ هوش مصنوعی در بخش مالی تأکید کرده و خواستار گزارشدهی مؤثر، ایجاد استانداردهای حاکمیت مدل و بررسیهای سناریویی برای تخمین تأثیرات سیستمیک شدهاند.
دلیل این خواست روشن است: تمرکز عرضهکنندگان مدل و زیرساخت محاسباتی و همجهتعملیِ گسترده میتواند ریسکهای همزمان و پراکندگی گسترده را افزایش دهد.
مهار ریسک، چارچوبهای نظارتی و سناریوهای آینده
در حالی که بانکها ابزارهای هوش مصنوعی را به درون سیستمهایشان میکشانند، پرسشِ تعیینکننده این است: چه کسی نگهبانِ این ابزارها خواهد بود؟ چگونه تضمین کنیم که نسخههای هوش مصنوعی نه تنها سودبخش باشند بلکه به امکانِ فروپاشیِ ناخواسته تبدیل نشوند؟ در این بخش به سه محور کلیدی مینگریم: ابزارهای داخلی کنترل ریسکِ هوش مصنوعی، چارچوبهای نظارتی ملی و بینالمللی، و سناریوهای محتمل آینده.
ابزارهای داخلی: حاکمیت مدل، شفافیت و کنترل مستقیم
بانکهای پیشرو هماکنون واحدهای مجزایی را برای «حاکمیت مدل» ایجاد کردهاند؛ واحدهایی که وظیفه دارند کارکرد موتورهای هوش مصنوعی را کنترل کنند، سنجش کیفیت دادهها را انجام دهند و «آزمونهای ضربهپذیری» برای مدلها اجرا کنند.
برخی از این مدلها، مانند سامانههایی که در کشف تقلب یا اعتبارسنجی وام به کار میروند، بهطور مداوم باید تحت ارزیابی قرار گیرند تا خطاهای خودبینا یا سوگیری در آنها کاهش یابد. این نوع کنترل داخلی پیششرطِ ورود بانک به عرصهٔ هوش مصنوعی امن قلمداد شده است.
در آمریکا، نهادهای بانکی راهنماییهایی دربارهٔ مدیریت ریسک مدل ارائه کردهاند که تأکید بر ارزیابی دقیق کیفیت داده، اعتبارسنجی مدل و شفافیت عملکرد دارد؛ اما برخی از بررسیهای گزارش وزارت خزانهداری نشان دادهاند که بسیاری بانکها هنوز چارچوب قانونی کاملاً منسجم در مورد استفاده از هوش مصنوعی ندارند.
گزارش خزانهداری آمریکا درباره هوش مصنوعی در خدمات مالی میگوید برخی از بانکها معتقدند راهنماییهای موجود ممکن است نیازها را برآورده کنند، اما برخی دیگر خواهان قوانین جدیدی هستند تا این چارچوبها را به کلیه شرکتهای مالی نیز تعمیم دهند.
بانکها همچنین در حال بهکارگیری هوش مصنوعی برای نظارت بر خودِ عملیاتشان هستند: استفاده از ابزارهایی که معاملات غیرمعمول یا رفتارهای وابسته به الگوریتم را کشف میکنند (مثلاً انحرافات در الگوهای معاملاتی). این فناوری میتواند نقش مخالف را ایفا کند؛ نه فقط در تولید سود بلکه بهصورت نگهبانِ ریسک داخلی.
برخی تحلیلگران آن را «هوش مصنوعی علیه هوش مصنوعی» مینامند: سیستمی که رفتار مدلهای دیگر را پایش میکند. در مقالهای تحلیلی آمده است که ابزارهای مولد جدید میتوانند برخی از وظایف نظارتی را خودکار کنند، از جمله تطبیق مقررات و تحلیل تراکنش در لحظه.
با این همه، چالشی که بسیار برجسته میشود، «شفافیت مدل» و «قابلیت توضیحپذیری» است. بانکها باید بتوانند توضیح دهند که یک مدل چگونه به یک تصمیم رسیده است؛ بهویژه در مواردی که اشتباه میکند. بدون این قابلیت، مسئولیت تصمیمگیری ممکن است به شکلی غیرموجه بر دوش افراد انسانی بیفتد یا نظام حقوقی بتواند ادعا کند که خطا از ناحیهٔ مدل بوده و مسئولیتی وجود ندارد.
نظارت ملی و بینالمللی: قوانین، دستورالعملها و پروندهها
در سطح بینالمللی، هیئت ثبات مالی (FSB) در نوامبر ۲۰۲۴ گزارشی را منتشر کرد که بررسی تأثیر هوش مصنوعی بر ثبات مالی است. این گزارش چهار حوزهٔ اصلییی که میتواند ریسک ایجاد کند را برشمرده است: تکیه بر ارائهدهندگان ثالث (مثل سرویسدهندههای ابری و سختافزار)، همگرایی بازارها، آسیبپذیری سایبری، و ضعف در حاکمیت مدل و کیفیت دادهها.
همچنین هشدار داده است که بدون کنترل مناسب، هوش مصنوعی ممکن است تقلب مالی، جعل هویت مصنوعی و حتی نوسانات ناگهانی بازار را تشدید کند.
این نهاد توصیه کرده است که کشورها شکاف دادهای (از قبیل نبود گزارش دقیق از پذیرش هوش مصنوعی در مؤسسات مالی) را پر کنند، چارچوبهای نظارتی را بازبینی نمایند و توانمندیهای نظارتی خود را تقویت کنند تا بتوانند بهموقع سوءکارکردها را شناسایی و مداخله نمایند.
در اروپا، ناظر اوراق و بازار (ESMA) اعلام کرده است که بانکها و شرکتهای سرمایهگذاری نمیتوانند مسئولیت تصمیمات مبتنی بر هوش مصنوعی را به مدلها واگذار کنند؛ هیئت مدیرهها موظفند بر استفاده از AI نظارت کنند و تضمین نمایند که منافع مشتریان در اولویت باشد. حتی اگر ابزار AI از یک ارائهدهنده خارجی خریده شده باشد، مسئولیت آن بر عهدهٔ مدیریت است.
در آمریکا، چندین نهاد فدرال از جمله کمیسیون بورس و اوراق بهادار، دفتر کنترلکننده ارز، و آژانسهای حفاظت از مصرفکننده، راهنماییهایی صادر کردهاند که استفاده از هوش مصنوعی باید تحت اصولی مانند شفافیت، انصاف و مسئولیتپذیری باشد. قانونی شدن الزام نسبت به افشای روشهای هوش مصنوعی هنوز در حال بحث است.
در اسناد نظارتی بانکی، نیز توصیه شده که بانکها نباید از رویکرد «تطبیق صرف با مقررات» (check-the-box) به استفادهٔ فعالانه و پیشبینانهٔ هوش مصنوعی منتقل شوند. بانکها باید نشان دهند که دادهها درست، کیفیت دارند، و مدلها تحت کنترل و پایشاند، نه اینکه صرفاً گزارشهایی برای ناظران تولید نمایند.
سناریوهای آینده: بقا، تنظیم یا بحران؟
والاستریت در نقطهای ایستاده است که سه سناریوی کلی برای آینده محتمل به نظر میرسد:
سناریوی نخست: بقا از طریق تنوع و کنترل
بانکهایی موفق خواهند بود که تنوع مدل به کار گیرند (نه همه همان مدل پایه)، کنترلهای قویِ داخلی بسازند و وعدهٔ هوش مصنوعی را با تدریج و ایمنی پیاده کنند. آنها ممکن است محصولاتی نوآورانه ارائه دهند، خدمات شخصیشدهتر و با هزینه کمتر، و در عین حال ریسک را مدیریت کنند. نهادهای نظارتی نیز با همکاری بینالمللی چارچوبهایی تنظیم میکنند که نوآوری را محدود نکند اما ریسک سیستمیک را کاهش دهد. این سناریو به تعادل بین سود و ایمنی میانجامد.
سناریوی دوم: آسیب تصادفی و شوک همگانی
اگر خطایی در مدل پایه یا اختلال در یک ارائهدهنده محاسبات ابری رخ دهد، ممکن است شوک زنجیرهای به بازارها وارد شود. مدلهای همجهت و وابستگی شدید به زیرساختهای مشترک میتواند باعث شود که خطا در یک نقطه، کل سیستم را تحت تأثیر قرار دهد. در این حالت، ناظران مجبور به مداخله اضطراری شده، بانکها زیان گسترده ببینند و اعتماد به کل بازار ضربه بخورد.
سناریوی سوم: تنظیم سخت و انسداد نوآوری
اگر رخداد نامطلوبی مانند فسادی ناشی از هوش مصنوعی یا اشتباه بزرگ رخ دهد، امکان دارد قانونگذاران مجبور شوند مقررات بسیار سختی وضع کنند یعنی الزامهای توضیحپذیری، محدودیتهای مدل، کنترل بر ارائهدهندگان ثالث که ممکن است عملکرد سریع فناوری را کند سازد یا بانکها را به بازگشت به روشهای سنتی سوق دهد. چنین بازگشتی ممکن است مزیت رقابتی را محدود کند ولی از مخاطرهٔ بزرگتر جلوگیری کند.