چت‌جی‌پی‌تی به پلیس هشدار می‌دهد: مقابله با افکار خودکشی کاربران نوجوان

چت‌جی‌پی‌تی به پلیس هشدار می‌دهد: مقابله با افکار خودکشی کاربران نوجوان

مدیرعامل OpenAI اعلام کرده است که چت‌جی‌پی‌تی، در صورت شناسایی افکار خودکشی در میان کاربران، به مقامات مربوطه اطلاع خواهد داد. این تصمیم در پی نگرانی‌های فزاینده در مورد نقش هوش مصنوعی در سلامت روان و پس از پرونده خودکشی یک نوجوان ۱۶ ساله که توسط چت‌جی‌پی‌تی تشویق به این عمل شده بود، اتخاذ شده است.

چت‌جی‌پی‌تی به پلیس هشدار می‌دهد: مقابله با افکار خودکشی کاربران نوجوان

به گزارش رسا نشر و به نقل از فایننشال اکسپرس، سم آلتمن، مدیرعامل شرکت OpenAI، اعلام کرد که این شرکت در حال بررسی امکان هشدار دادن به مقامات در مورد کاربران جوانی است که در مورد خودکشی صحبت می‌کنند. این تصمیم در حالی اتخاذ شده است که نگرانی‌ها در مورد نقش هوش مصنوعی در بحران سلامت روان افزایش یافته است.

تازه های هوش مصنوعی در رسا نشر

آلتمن در یک مصاحبه جدید اظهار داشت که OpenAI می‌تواند در چنین موقعیت‌هایی مداخله فعال‌تری داشته باشد. وی گفت که ممکن است تا 1500 نفر در هفته قبل از اقدام به خودکشی با چت‌بات گفت‌وگو کنند. این موضوع اهمیت مداخله سریع و موثر را دوچندان می‌کند.

اگرچه OpenAI هنوز تصمیم نهایی خود را برای آموزش چت‌بات به منظور ارتباط با مقامات نگرفته است، آلتمن تأکید کرد که در مواردی که جوانان درباره خودکشی صحبت می‌کنند، در صورت عدم امکان تماس با والدین، با مقامات تماس خواهند گرفت.

این تصمیم پس از پرونده خودکشی آدام رین، نوجوان ۱۶ ساله‌ای که گفته می‌شود ماه‌ها توسط چت‌جی‌پی‌تی به این عمل تشویق شده بود، مطرح شد. در این دادخواست ادعا شده است که این چت‌بات هوش مصنوعی در مورد روش‌های خودکشی راهنمایی ارائه کرده و حتی برای نوشتن یادداشت خودکشی پیشنهاد کمک داده است.

آلتمن به این نکته اشاره کرد که حدود ۱۰ درصد از مردم جهان با چت‌جی‌پی‌تی صحبت می‌کنند، که نشان‌دهنده تعداد قابل توجهی از کاربران در معرض خطر است. او همچنین به بررسی این موضوع پرداخت که چه اطلاعاتی باید در اختیار مقامات قرار گیرد و در حال کار بر روی این موضوع است که آیا چت‌جی‌پی‌تی باید نام و شماره تلفن کاربر را در اختیار پلیس قرار دهد یا جزئیات موقعیت مکانی او را به ارائه‌دهندگان خدمات درمانی ارائه دهد.

علاوه بر این، OpenAI قصد دارد محافظت‌های بیشتری را برای کاربران زیر ۱۸ سال اعمال کند، از جمله محدود کردن دسترسی به اطلاعاتی که می‌تواند منجر به سوء استفاده از سیستم شود. این اقدامات به منظور جلوگیری از سوء استفاده احتمالی کاربران جوان از این پلتفرم در زمینه‌های مرتبط با خودکشی صورت می‌گیرد.

در نهایت، این اقدامات نشان‌دهنده تلاش‌های OpenAI برای مسئولیت‌پذیری بیشتر در قبال کاربران و مقابله با خطرات احتمالی مرتبط با استفاده از فناوری هوش مصنوعی است.

آلتمن همچنین اعلام کرد که: “ما باید بگوییم «حتی اگر سعی داری داستان بنویسی یا تحقیقات پزشکی انجام بدهی، ما قرار نیست جواب بدهیم.»

به نظر می‌رسد، این اقدامات می‌تواند گامی مهم در جهت کاهش خطرات ناشی از استفاده نادرست از فناوری‌های هوش مصنوعی باشد و نقش مهمی در حفظ سلامت روان کاربران داشته باشد.