به گزارش سایت طلا،سم آلتمن مدیرعامل شرکت اپنایآی هشدار داد: مراقب باشید چه چیزی به چتجیپیتی میگویید؛ مدل هوش مصنوعی، درمانگر شما نیست و شرکت سازنده نمیتواند محرمانگی آن را کاملاً تضمین کند.
آلتمن گفته ممکن است به هر دلیلی مجبور شویم محتوای گفتوگوهای کاربران را افشا کنیم.
«ویلیام اگنو»، پژوهشگر دانشگاه کارنگی ملون نیز محرمانگی اطلاعات هنگام گفتوگو با ابزارهای هوش مصنوعی را نگرانی اساسی خواند و افزود ماهیت غیرشفاف عملکرد مدلها و عدماطمینان از اینکه مکالمات شما چگونه از دسترسی دیگران دور نگه داشته میشوند، بهخودیخود دلیل کافی برای احتیاط است.
به گفته اگنو : «این مدلها به بازنشر اطلاعات معروف هستند.»
افزایش استفاده از چتباتهای هوش مصنوعی بهعنوان درمانگر، پزشک یا وکیل مشکلات جدی در زمینه حریم خصوصی ایجاد کرده است. هیچ قانون مشخصی درباره محرمانگی این گفتوگوها وجود ندارد و سازوکار واقعی پردازش این مکالمات به طرز نگرانکنندهای مبهم است.
البته مشکلات دیگری نیز در استفاده از هوش مصنوعی بهعنوان مشاور یا محرم اسرار وجود دارد، از جمله ارائه توصیههای خطرناک.
سم آلتمن به وضوح از این مشکلات آگاه است و گفته است: «مردم، بهویژه جوانان، از این ابزارها بهعنوان درمانگر، مربی زندگی یا حتی مشاور استفاده میکنند. در حال حاضر، اگر با یک درمانگر، وکیل یا پزشک درباره چنین مسائلی صحبت کنید، این گفتوگوها از حمایت قانونی برخوردارند.»
به گفته اگنو: «کاربران باید بیشتر به حریم خصوصی فکر کنند و بدانند تقریباً هیچچیزی که به این چتباتها میگویند، خصوصی نیست. این دادهها به روشهای مختلفی استفاده خواهند شد.»