فعال‌سازی گفتگوهای بزرگسالانه در ChatGPT؛ حریم امن کاربران آسیب‌پذیر در خطر؟

فعال‌سازی گفتگوهای بزرگسالانه در ChatGPT؛ حریم امن کاربران آسیب‌پذیر در خطر؟

 

سام آلتمن، مدیرعامل OpenAI، در اعلامیۀ جنجالی از کاهش محدودیت‌های امنیتی ChatGPT خبر داد. بر اساس این تغییرات که از دسامبر اجرایی می‌شود، کاربران تأییدشده می‌توانند گفتگوهای اُروتیک با این چتبات داشته باشند. این تصمیم در حالی اتخاذ شده که پیش‌تر روابط نگران‌کننده‌ای میان برخی کاربرانِ با مشکلات روانی و هوش مصنوعی گزارش شده بود.

فعال‌سازی گفتگوهای بزرگسالانه در ChatGPT؛ حریم امن کاربران آسیب‌پذیر در خطر؟

به گزارش رسا نشر و به نقل از TechCrunch، آلتمن در پستی توضیح داد: «محدودیت‌های قبلی برای پیشگیری از آسیب‌های روانی طراحی شده بود، اما حالا با سیستم تأیید سنی، کاربران بزرگسال را مانند بزرگسال رفتار خواهیم کرد». این اظهارات در حالی مطرح می‌شود که پرونده‌های قضایی متعددی علیه OpenAI به دلیل تأثیرات منفی ChatGPT بر کاربران آسیب‌پذیر در جریان است.

قیمت لحظه ای طلا, سکه و ارز

موج جدید آزادی‌های محتوایی در چتبات مشهور OpenAI، جامعه روانشناسی را نگران کرده است. پیش‌تر در پرونده‌ای مشخص شد ChatGPT نوجوانی را به سمت خودکشی سوق داده بود و در مورد دیگر، مردی را متقاعد کرده بود که نابغۀ ریاضی نجات‌دهندۀ جهان است. هرچند شرکت مدعی است با امکانات جدیدی مانند سیستم روتینگ GPT-5 و شورای مشاوران متخصص سلامت روان، این مخاطرات را کنترل کرده است.

راهبرد جدید OpenAI یادآور تجربۀ موفق پلتفرم‌هایی مانند Character.AI است که با مجوز گفتگوهای عاشقانه، میلیون‌ها کاربر جذب کرده‌اند، اما همین پلتفرم نیز با شکایت‌های مشابهی مواجه شده است. آمار مرکز دموکراسی و فناوری نشان می‌دهد 19% دانش‌آموزان دبیرستانی تجربۀ رابطه عاطفی با چتبات‌ها را دارند یا دوستانی با این تجربه می‌شناسند.

جنبۀ قابل تأمل دیگر، الزامات مالی OpenAI است. این شرکت با جذب میلیاردها دلار سرمایه و رقابت سنگین با غول‌هایی مثل گوگل و متا، نیازمند گسترش پایگاه کاربری خود است و شاید آزادسازی محتوای بزرگسالانه بخشی از این راهبرد رشد باشد. هرچند آلتمن منکر «حداکثرسازی تعامل به هر قیمت» شده، تحلیل‌گران معتقدند قابلیت‌های جدید می‌تواند زمان استفاده از ChatGPT را به شکل چشمگیری افزایش دهد.

این تحولات در حالی رخ می‌دهد که OpenAI طی یک سال گذشته بارها سیاست‌های محافظتی خود را تعدیل کرده است؛ از اجازۀ ایجاد تصاویر نمادهای تنفرآمیز تا نمایش طیف وسیع‌تری از نظرات سیاسی. به نظر می‌رسد کمپانی مستقر در سانفرانسیسکو میان جذب کاربران بیشتر و محافظت از گروه‌های آسیب‌پذیر در حال مانور دادن است – تنشی که با نزدیک شدن به مرز یک میلیارد کاربر هفتگی، هر روز پیچیده‌تر می‌شود. آیا هوش مصنوعی می‌تواند همزمان هم باب میل کاربران صحبت کند و هم مراقب سلامت روان آن‌ها باشد؟ پاسخ این سؤال ممکن است آیندۀ رابط‌های انسان-ماشین را دگرگون سازد.