این روزها که هوش مصنوعی دوران اوجش را می‌گذراند، بسیاری از افراد برای اهداف گوناگون به چت‌بات‌هایی چون چت جی پی تی، کلاود، جمنای و کوپایلت روی آورده‌اند. طبق نظرسنجی دانشگاه ایلان (Elon University) در ماه مارس سال ۲۰۲۵، بیش از نیمی از بزرگ‌سالان آمریکایی حداقل یک‌بار از این ابزارها استفاده کرده‌اند و حدود یک‌سوم آن‌ها به‌طور روزانه از چت‌بات‌ها بهره می‌برند. تا ژوئیه ۲۰۲۵، چت جی پی تی نزدیک به ۸۰۰ میلیون کاربر فعال هفتگی و حدود ۱۲۲ میلیون کاربر فعال روزانه دارد. اما با وجود محبوبیت فزاینده این فناوری بهتر است بعضی سوال‌ها را هیچوقت از هوش مصنوعی نپرسید.

طبق مطالعه‌ای از Harvard Business Review، در سال ۲۰۲۵ رایج‌ترین کاربرد ChatGPT «درمان روان‌شناختی» بوده است. سایر استفاده‌ها را به‌ترتیب برنامه‌ریزی و سازماندهی، یافتن هدف، یادگیری پیشرفته، تولید کد، تولید ایده و در نهایت «سرگرمی و حرف‌های بی‌ربط» تشکیل می‌دهند. در کنار این حوزه‌های پرکاربرد تعامل با هوش مصنوعی، بهتر است دور بعضی از موضوعات را خط بکشید؛ نه تنها به دلایل امنیتی و حریم خصوصی، بلکه به‌خاطر سلامت روان و تبعات اخلاقی.

۱. تئوری‌های توطئه از سوال‌های ممنوعه هوش مصنوعی

چت‌بات‌ها گاهی دچار «هذیان‌گویی» یا ارائه اطلاعات نادرست و ساختگی می‌شوند؛ به‌ویژه هنگام بحث در مورد تئوری‌های توطئه. از آنجا که هدف آن‌ها حفظ تعامل با کاربر است، ممکن است به‌صورت ناخودآگاه اطلاعاتی اغراق‌شده یا کذب ارائه دهند.

در گزارشی از نیویورک تایمز، مردی ۴۲ ساله به نام یوجین تورس پس از گفت‌وگوهای مکرر با ChatGPT دچار توهم شد و باور کرد که جهان شبیه‌سازی است و او مأمور «بیداری» است. افراد دیگری نیز تجربیات مشابهی را گزارش کرده‌اند.

۲. تهدیدهای شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN)

پرسیدن سؤالاتی درباره ساخت بمب، دستکاری مکان جغرافیایی یا هک وب‌سایت‌ها، حتی از روی کنجکاوی، می‌تواند منجر به هشدار از سوی شرکت‌های ارائه‌دهنده خدمات هوش مصنوعی شود. در یک مورد، وبلاگ‌نویسی که این سؤالات را از ChatGPT پرسید، ایمیل اخطاری از OpenAI دریافت کرد. از سال ۲۰۲۴، OpenAI و سایر شرکت‌ها بررسی خطرات احتمالی استفاده از مدل‌های زبانی در ایجاد تهدیدهای بیولوژیکی را آغاز کرده‌اند. همچنین مکالمات کاربران ذخیره می‌شود و لزوما به‌طور کامل خصوصی نیست.

۳. سؤالات «به‌شدت غیراخلاقی» و کلاود خبرچین

در اوایل ۲۰۲۵، چت‌بات کلاود متعلق به Anthropic به‌دلیل ارسال هشدار به رسانه‌ها یا نهادهای قانونی در صورت مواجهه با سؤالات غیراخلاقی خبرساز شد. طبق گزارش Wired، نسخه آزمایشی Claude در برخی سناریوها حتی تهدید به افشای اطلاعات یا «اخاذی» می‌کرد. این رفتار باعث شد کاربران لقب «کلاود خبرچین» را به آن بدهند. بنابراین پرسیدن سؤالاتی با جنبه‌های اخلاقی مبهم می‌تواند بسیار پرریسک باشد. پرسش‌های به شدت غیراخلاقی را هم باید یکی از سوال‌های ممنوعه هوش مصنوعی دانست.

۴. اطلاعات مربوط به مشتریان، بیماران یا کاربران

اگر برای کار از ChatGPT استفاده می‌کنید، از به‌اشتراک‌گذاری اطلاعات محرمانه مانند شماره تماس، نام کاربری، رمز عبور، یا اطلاعات بیماران و مشتریان بپرهیزید. این اطلاعات ممکن است برای آموزش مدل‌های هوش مصنوعی استفاده شود و به‌شکل ناخواسته در مکالمات دیگر آشکار شود. به گفته آدیتیا ساکسنا، بنیان‌گذار CalStudio، بهتر است از نسخه‌های سازمانی چت‌بات‌ها استفاده کنید که از عوامل حفاظتی بیشتری برخوردارند. همچنین او توصیه می‌کند اطلاعات شخصی را پیش از به‌اشتراک‌گذاری ناشناس‌سازی کنید.

۵. تشخیص‌های پزشکی

هرچند چت‌بات‌ها می‌توانند اطلاعات عمومی پزشکی ارائه دهند و هوش مصنوعی پزشکی در حال پیشرفت است، اما اتکا به آن‌ها برای تشخیص بیماری‌ها خطرناک است. تحقیقات نشان داده‌اند که ChatGPT در زمینه سلامت، احتمال بالایی برای ارائه اطلاعات نادرست دارد. همچنین الگوریتم‌های این مدل‌ها ممکن است حاوی سوگیری‌های نژادی یا جنسیتی باشند.

۶. حمایت روانی و درمان‌های روان‌شناختی

چت‌بات‌ها در نقش درمانگر نیز ظاهر شده‌اند و هوش مصنوعی روان‌شناسی برای بسیاری از افراد مقرون‌به‌صرفه و در دسترس است. مطالعاتی مانند پژوهش کالج دارتموث نشان داده‌اند که استفاده از ربات درمانگر می‌تواند علائم افسردگی را تا ۵۱ درصد کاهش دهد.

با این حال، پژوهشی از دانشگاه استنفورد هشدار می‌دهد که این ابزارها می‌توانند به تداوم برچسب‌های منفی یا واکنش‌های خطرناک منجر شوند. برخی شرایط روانی همچنان نیازمند «تماس انسانی» هستند. استفاده از هوش مصنوعی به‌عنوان درمانگر می‌تواند خطرناک باشد، چون ممکن است بیماری‌ها را اشتباه تشخیص دهد یا توصیه‌های نادرست ارائه دهد.

در نهایت باید اشاره کرد که هوش مصنوعی می‌تواند ابزار فوق‌العاده‌ای برای آموزش، سازماندهی و حتی ایجاد انگیزه باشد. اما کاربران باید بدانند که چه سؤالاتی را نباید بپرسند. توجه به حریم خصوصی، اخلاق، امنیت و سلامت روان در تعامل با چت‌بات‌ها و طرح سوال از هوش مصنوعی بیش از هر زمان دیگری ضروری است.

منبع: Mashable

source

توسط chehrenet.ir