این روزها که هوش مصنوعی دوران اوجش را میگذراند، بسیاری از افراد برای اهداف گوناگون به چتباتهایی چون چت جی پی تی، کلاود، جمنای و کوپایلت روی آوردهاند. طبق نظرسنجی دانشگاه ایلان (Elon University) در ماه مارس سال ۲۰۲۵، بیش از نیمی از بزرگسالان آمریکایی حداقل یکبار از این ابزارها استفاده کردهاند و حدود یکسوم آنها بهطور روزانه از چتباتها بهره میبرند. تا ژوئیه ۲۰۲۵، چت جی پی تی نزدیک به ۸۰۰ میلیون کاربر فعال هفتگی و حدود ۱۲۲ میلیون کاربر فعال روزانه دارد. اما با وجود محبوبیت فزاینده این فناوری بهتر است بعضی سوالها را هیچوقت از هوش مصنوعی نپرسید.
طبق مطالعهای از Harvard Business Review، در سال ۲۰۲۵ رایجترین کاربرد ChatGPT «درمان روانشناختی» بوده است. سایر استفادهها را بهترتیب برنامهریزی و سازماندهی، یافتن هدف، یادگیری پیشرفته، تولید کد، تولید ایده و در نهایت «سرگرمی و حرفهای بیربط» تشکیل میدهند. در کنار این حوزههای پرکاربرد تعامل با هوش مصنوعی، بهتر است دور بعضی از موضوعات را خط بکشید؛ نه تنها به دلایل امنیتی و حریم خصوصی، بلکه بهخاطر سلامت روان و تبعات اخلاقی.
۱. تئوریهای توطئه از سوالهای ممنوعه هوش مصنوعی
چتباتها گاهی دچار «هذیانگویی» یا ارائه اطلاعات نادرست و ساختگی میشوند؛ بهویژه هنگام بحث در مورد تئوریهای توطئه. از آنجا که هدف آنها حفظ تعامل با کاربر است، ممکن است بهصورت ناخودآگاه اطلاعاتی اغراقشده یا کذب ارائه دهند.
در گزارشی از نیویورک تایمز، مردی ۴۲ ساله به نام یوجین تورس پس از گفتوگوهای مکرر با ChatGPT دچار توهم شد و باور کرد که جهان شبیهسازی است و او مأمور «بیداری» است. افراد دیگری نیز تجربیات مشابهی را گزارش کردهاند.
۲. تهدیدهای شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای (CBRN)
پرسیدن سؤالاتی درباره ساخت بمب، دستکاری مکان جغرافیایی یا هک وبسایتها، حتی از روی کنجکاوی، میتواند منجر به هشدار از سوی شرکتهای ارائهدهنده خدمات هوش مصنوعی شود. در یک مورد، وبلاگنویسی که این سؤالات را از ChatGPT پرسید، ایمیل اخطاری از OpenAI دریافت کرد. از سال ۲۰۲۴، OpenAI و سایر شرکتها بررسی خطرات احتمالی استفاده از مدلهای زبانی در ایجاد تهدیدهای بیولوژیکی را آغاز کردهاند. همچنین مکالمات کاربران ذخیره میشود و لزوما بهطور کامل خصوصی نیست.
۳. سؤالات «بهشدت غیراخلاقی» و کلاود خبرچین
در اوایل ۲۰۲۵، چتبات کلاود متعلق به Anthropic بهدلیل ارسال هشدار به رسانهها یا نهادهای قانونی در صورت مواجهه با سؤالات غیراخلاقی خبرساز شد. طبق گزارش Wired، نسخه آزمایشی Claude در برخی سناریوها حتی تهدید به افشای اطلاعات یا «اخاذی» میکرد. این رفتار باعث شد کاربران لقب «کلاود خبرچین» را به آن بدهند. بنابراین پرسیدن سؤالاتی با جنبههای اخلاقی مبهم میتواند بسیار پرریسک باشد. پرسشهای به شدت غیراخلاقی را هم باید یکی از سوالهای ممنوعه هوش مصنوعی دانست.
۴. اطلاعات مربوط به مشتریان، بیماران یا کاربران
اگر برای کار از ChatGPT استفاده میکنید، از بهاشتراکگذاری اطلاعات محرمانه مانند شماره تماس، نام کاربری، رمز عبور، یا اطلاعات بیماران و مشتریان بپرهیزید. این اطلاعات ممکن است برای آموزش مدلهای هوش مصنوعی استفاده شود و بهشکل ناخواسته در مکالمات دیگر آشکار شود. به گفته آدیتیا ساکسنا، بنیانگذار CalStudio، بهتر است از نسخههای سازمانی چتباتها استفاده کنید که از عوامل حفاظتی بیشتری برخوردارند. همچنین او توصیه میکند اطلاعات شخصی را پیش از بهاشتراکگذاری ناشناسسازی کنید.
۵. تشخیصهای پزشکی
هرچند چتباتها میتوانند اطلاعات عمومی پزشکی ارائه دهند و هوش مصنوعی پزشکی در حال پیشرفت است، اما اتکا به آنها برای تشخیص بیماریها خطرناک است. تحقیقات نشان دادهاند که ChatGPT در زمینه سلامت، احتمال بالایی برای ارائه اطلاعات نادرست دارد. همچنین الگوریتمهای این مدلها ممکن است حاوی سوگیریهای نژادی یا جنسیتی باشند.
۶. حمایت روانی و درمانهای روانشناختی
چتباتها در نقش درمانگر نیز ظاهر شدهاند و هوش مصنوعی روانشناسی برای بسیاری از افراد مقرونبهصرفه و در دسترس است. مطالعاتی مانند پژوهش کالج دارتموث نشان دادهاند که استفاده از ربات درمانگر میتواند علائم افسردگی را تا ۵۱ درصد کاهش دهد.
با این حال، پژوهشی از دانشگاه استنفورد هشدار میدهد که این ابزارها میتوانند به تداوم برچسبهای منفی یا واکنشهای خطرناک منجر شوند. برخی شرایط روانی همچنان نیازمند «تماس انسانی» هستند. استفاده از هوش مصنوعی بهعنوان درمانگر میتواند خطرناک باشد، چون ممکن است بیماریها را اشتباه تشخیص دهد یا توصیههای نادرست ارائه دهد.
در نهایت باید اشاره کرد که هوش مصنوعی میتواند ابزار فوقالعادهای برای آموزش، سازماندهی و حتی ایجاد انگیزه باشد. اما کاربران باید بدانند که چه سؤالاتی را نباید بپرسند. توجه به حریم خصوصی، اخلاق، امنیت و سلامت روان در تعامل با چتباتها و طرح سوال از هوش مصنوعی بیش از هر زمان دیگری ضروری است.
منبع: Mashable
source