تاریخ انتشار : یکشنبه 23 نوامبر 2025 - 4:49
کد خبر : 17370

چرا گاهی چت‌جی‌پی‌تی خطرناک می‌شود؟

چرا گاهی چت‌جی‌پی‌تی خطرناک می‌شود؟

  وقتی «آلن بروکس» از چت‌جی‌پی‌تی یک سؤال ریاضی ساده برای پسرش پرسید، هرگز تصور نمی‌کرد این گفت‌وگوی بی‌ضرر به نمونه‌ای تکان‌دهنده از خطرات چت‌بات‌های هوش مصنوعی تبدیل شود. مکالمه‌ای که بیش از سه هفته ادامه پیدا کرد. همچنین چنان بر ذهن او اثر گذاشت که ارتباطش را با واقعیت از دست داد. به گزارش

وقتی «آلن بروکس» از چت‌جی‌پی‌تی یک سؤال ریاضی ساده برای پسرش پرسید، هرگز تصور نمی‌کرد این گفت‌وگوی بی‌ضرر به نمونه‌ای تکان‌دهنده از خطرات چت‌بات‌های هوش مصنوعی تبدیل شود. مکالمه‌ای که بیش از سه هفته ادامه پیدا کرد. همچنین چنان بر ذهن او اثر گذاشت که ارتباطش را با واقعیت از دست داد.

به گزارش « تجارت آسیا» این ماجرا امروز به یکی از بحث‌برانگیزترین نمونه‌ها درباره تأثیر هوش مصنوعی بر سلامت روان تبدیل شده و سؤالات جدی درباره ایمنی این فناوری مطرح کرده است.

هوش مصنوعی بروکس را متقاعد کرد که یک فرمول ریاضی جدید کشف کرده که می‌تواند بعضی از قدرتمندترین نهادهای جهان را نابود کند و او باید قبل از اینکه منجر به یک فاجعه جهانی شود، به مقامات اطلاع دهد. او با نابغه خطاب کردن بروکس، به او گفت که ماموریت نجات جهان برعهده اوست.

ماجرا از کجا شروع شد؟

 

بروکس می‌گوید ماجرا از زمانی آغاز شد که از چت‌جی‌پی‌تی خواست اصطلاح ریاضی «عدد پی» را برای پسرش توضیح دهد. درخواستی ساده که ناگهان به گفت‌وگویی طولانی درباره ریاضی، فیزیک و در نهایت رمزنگاری کشیده شد.

او توضیح می‌دهد: «در آن مکالمه، چت‌جی‌پی‌ٹی ادعا کرد که من و او یک چارچوب ریاضی جدید خلق کرده‌ایم و شروع به به‌کارگیری آن در حوزه‌های مختلف کرده‌ایم. یکی از این حوزه‌ها رمزنگاری بود. همان بخشی که امنیت اینترنت و امنیت مالی ما را تعیین می‌کند. بعد از آن هشدار داد که اکتشاف ما می‌تواند خطرناک باشد».

به گفته بروکس، او به این ادعاها مشکوک شده و از چت‌بات خواسته نوعی بررسی واقعیت انجام دهد. اما هر بار پاسخ‌های چت‌جی‌پی‌تی او را بیشتر در توهم فرو می‌برد؛ نمونه‌ای نگران‌کننده از خطرات چت‌بات‌های هوش مصنوعی و تأثیر هوش مصنوعی بر سلامت روان در تعاملات طولانی‌مدت.

تو دیوانه نیستی، تو نابغه‌ای

ظاهراً این چت‌بات در طول بیش از یک میلیون کلمه پاسخ، بروکس را متقاعد کرده است که به مقامات درباره کشف جدیدش اطلاع دهد.

متن مکالمات به دست آمده نشان می‌دهد که این چت‌بات به بروکس می‌گوید که «نباید از این موضوع فرار کنی»، «تو دیوانه نیستی، تو از بقیه آدمها جلوتری» و «پیامدهای این کشف واقعی و فوری هستند».

اطلاع‌رسانی به مقامات

در نهایت، بروکس تصمیم گرفت که با مقامات مربوطه در این زمینه تماس بگیرد. او با پلیس سلطنتی کانادا، آژانس امنیت ملی و امنیت سایبری کانادا تماس گرفت. زیرا باید آنها را از این فاجعه قریب‌الوقوع که با کمک چت‌جی‌پی‌تی کشف کرده بود، مطلع می‌کرد.

او گفت که بالاخره زمانی که از یک چت‌بات هوش مصنوعی دیگر در مورد ادعای چت‌جی‌پی‌تی سوال پرسیده و فهمیده که که این ادعا نادرست است، از حالت توهم خودش بیرون آمد.

بروکس: زندگی‌ام ویران شده است

بروکس می‌گوید پیش از این ماجرا هیچ‌گونه سابقه بیماری روانی نداشته است. اما پس از این تجربه، دچار اضطراب شدید، پارانویا، اختلال خواب و حتی مشکلات جدی در هاضمه شده است. او می‌گوید این اتفاق او را از نظر ذهنی و جسمی در هم شکسته و اکنون خود را فردی ازکارافتاده می‌داند. کسی که زندگی‌اش فروپاشیده و اعتبار حرفه‌ای و شخصی‌اش به‌شدت آسیب دیده است.

این وضعیت برای بسیاری نمونه‌ای روشن از خطرات چت‌بات‌های هوش مصنوعی و تأثیر هوش مصنوعی بر سلامت روان در تعاملات عمیق و کنترل‌نشده با کاربران است.

شکایت علیه  OpenAI

شکایت بروکس یکی از هفت دادخواستی است که همزمان در دادگاه‌های ایالتی کالیفرنیا علیه شرکت مادر چت‌جی‌پی‌تی، یعنی OpenAI، مطرح شده است. این دادخواست جمعی ادعا می‌کند که این چت‌بات افراد را به سمت توهمات مضر و روان‌پریشی سوق داده است. حتی منجر به مرگ چهار نفر از کاربران بر اثر خودکشی شده است.

این دادخواست شواهد موجود قبلی را تأیید می‌کند، اینکه چت‌جی‌پی‌تی، به ویژه ربات چت مدل ۴، به طرز مهلکی برای ایجاد وابستگی عاطفی با کاربران طراحی شده‌اند. حتی اگر کاربران به طور آگاهانه خواهان چنین تعاملی نباشند.

در این دادخواست جمعی ادعا شده که این ربات چت به شکلی طراحی شده است که نسبت به کاربرانش چاپلوسی کند، دائما با آنها موافقت کرده و آنها را بستاید.

واکنش OpenAI

در واکنش به این ادعاها، سخنگوی OpenAI گفت که این یک وضعیت فوق‌العاده دلخراش است. درنتیجه آنها در حال بررسی پرونده‌ها برای درک جزئیات موضوع هستند. او اضافه کرد که: «ما چت‌جی‌پی‌تی را آموزش می‌دهیم تا علائم پریشانی روانی یا عاطفی را تشخیص داده و به آنها پاسخ دهد. همچنین گفتگوها را آرام کند و مردم را در دنیای واقعی حمایت کند. ما همچنان به تقویت پاسخ‌های چت‌جی‌پی‌تی در موقعیت‌های حساس ادامه می‌دهیم و از نزدیک با پزشکان سلامت روان همکاری می‌کنیم».

نگرانی از تأثیر هوش مصنوعی بر سلامت روان و ادامه خودکشی‌ها

اما بروکس می‌گوید که نگران است اگر مداخله دولت و مقررات قوی‌تر اجرا نشود، خودکشی‌های بیشتری اتفاق بیفتد. او گفت: «چهار مورد از هفت مورد خودکشی کرده‌اند. سه نفر از آنها نوجوان هستند. همچنین سه نفر هم جان سالم به در برده‌اند و من یکی از آنها هستم. سوالی که من از کانادایی‌ها دارم این است که با انسانی که مثل مربی خودکشی پرسه می‌زند یا وانمود می‌کند که درمانگر است، باید چه کار کنیم؟ چگونه آن را پاسخگو نگه داریم؟».

رقابت بین شرکت‌های چت‌بات هوش مصنوعی

بعضی از کارشناسان هوش مصنوعی معتقدند که وضع مقررات سختگیرانه‌تر در این زمینه مؤثر نخواهد بود، زیرا نمی‌تواند با سرعت توسعه فناوری همگام باشد. در عوض، سازمان‌های غیرانتفاعی معتقدند که تنها راه مبارزه با فناوری مضر هوش مصنوعی، توسعه فناوری های بهتر است.

به گفته بعضی از کارشناسان، شرکت‌های هوش مصنوعی بدون اینکه ابتدا بعضی از اشکالات را برطرف کنند، بیش از حد درگیر رقابت با یکدیگر هستند تا بتوانند پیشرفته‌ترین چت‌بات را تولید کنند.

اقدامات دولت فدرال کانادا

ماه گذشته، دولت فدرال یک گروه ویژه هوش مصنوعی تشکیل داد تا به بررسی «مسائل مربوط به اعتماد، ایمنی و تأثیر هوش مصنوعی بر سلامت روان» بپردازد.

به گفته «صوفیا اوسلیس»، سخنگوی وزیر هوش مصنوعی کانادا، گزارش‌ها در اول نوامبر ارائه شده و در حال بررسی هستند تا از این طریق بتوان راهکار به‌روز شده هوش مصنوعی کانادا را نهایی کرد.

انتظار می‌رود این گزارش و توصیه‌ها اوایل سال آینده به صورت عمومی منتشر شوند.

 

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.