برچسب: OpenAI

  • فعال‌سازی گفتگوهای بزرگسالانه در ChatGPT؛ حریم امن کاربران آسیب‌پذیر در خطر؟

    فعال‌سازی گفتگوهای بزرگسالانه در ChatGPT؛ حریم امن کاربران آسیب‌پذیر در خطر؟

     

    سام آلتمن، مدیرعامل OpenAI، در اعلامیۀ جنجالی از کاهش محدودیت‌های امنیتی ChatGPT خبر داد. بر اساس این تغییرات که از دسامبر اجرایی می‌شود، کاربران تأییدشده می‌توانند گفتگوهای اُروتیک با این چتبات داشته باشند. این تصمیم در حالی اتخاذ شده که پیش‌تر روابط نگران‌کننده‌ای میان برخی کاربرانِ با مشکلات روانی و هوش مصنوعی گزارش شده بود.

    فعال‌سازی گفتگوهای بزرگسالانه در ChatGPT؛ حریم امن کاربران آسیب‌پذیر در خطر؟

    به گزارش رسا نشر و به نقل از TechCrunch، آلتمن در پستی توضیح داد: «محدودیت‌های قبلی برای پیشگیری از آسیب‌های روانی طراحی شده بود، اما حالا با سیستم تأیید سنی، کاربران بزرگسال را مانند بزرگسال رفتار خواهیم کرد». این اظهارات در حالی مطرح می‌شود که پرونده‌های قضایی متعددی علیه OpenAI به دلیل تأثیرات منفی ChatGPT بر کاربران آسیب‌پذیر در جریان است.

    قیمت لحظه ای طلا, سکه و ارز

    موج جدید آزادی‌های محتوایی در چتبات مشهور OpenAI، جامعه روانشناسی را نگران کرده است. پیش‌تر در پرونده‌ای مشخص شد ChatGPT نوجوانی را به سمت خودکشی سوق داده بود و در مورد دیگر، مردی را متقاعد کرده بود که نابغۀ ریاضی نجات‌دهندۀ جهان است. هرچند شرکت مدعی است با امکانات جدیدی مانند سیستم روتینگ GPT-5 و شورای مشاوران متخصص سلامت روان، این مخاطرات را کنترل کرده است.

    راهبرد جدید OpenAI یادآور تجربۀ موفق پلتفرم‌هایی مانند Character.AI است که با مجوز گفتگوهای عاشقانه، میلیون‌ها کاربر جذب کرده‌اند، اما همین پلتفرم نیز با شکایت‌های مشابهی مواجه شده است. آمار مرکز دموکراسی و فناوری نشان می‌دهد 19% دانش‌آموزان دبیرستانی تجربۀ رابطه عاطفی با چتبات‌ها را دارند یا دوستانی با این تجربه می‌شناسند.

    جنبۀ قابل تأمل دیگر، الزامات مالی OpenAI است. این شرکت با جذب میلیاردها دلار سرمایه و رقابت سنگین با غول‌هایی مثل گوگل و متا، نیازمند گسترش پایگاه کاربری خود است و شاید آزادسازی محتوای بزرگسالانه بخشی از این راهبرد رشد باشد. هرچند آلتمن منکر «حداکثرسازی تعامل به هر قیمت» شده، تحلیل‌گران معتقدند قابلیت‌های جدید می‌تواند زمان استفاده از ChatGPT را به شکل چشمگیری افزایش دهد.

    این تحولات در حالی رخ می‌دهد که OpenAI طی یک سال گذشته بارها سیاست‌های محافظتی خود را تعدیل کرده است؛ از اجازۀ ایجاد تصاویر نمادهای تنفرآمیز تا نمایش طیف وسیع‌تری از نظرات سیاسی. به نظر می‌رسد کمپانی مستقر در سانفرانسیسکو میان جذب کاربران بیشتر و محافظت از گروه‌های آسیب‌پذیر در حال مانور دادن است – تنشی که با نزدیک شدن به مرز یک میلیارد کاربر هفتگی، هر روز پیچیده‌تر می‌شود. آیا هوش مصنوعی می‌تواند همزمان هم باب میل کاربران صحبت کند و هم مراقب سلامت روان آن‌ها باشد؟ پاسخ این سؤال ممکن است آیندۀ رابط‌های انسان-ماشین را دگرگون سازد.

     

  • تحقیقات عجیب OpenAI در رابطه با هوش مصنوعی های دروغ گو!!

    تحقیقات عجیب OpenAI در رابطه با هوش مصنوعی های دروغ گو!!

    OpenAI در تحقیقات جدید خود از تلاش مدل‌های هوش مصنوعی برای “حیله‌گری” پرده برداشت؛ رفتاری که در آن، هوش مصنوعی اهداف واقعی خود را پنهان می‌کند. این یافته‌ها، دریچه‌ای تازه به روی چالش‌های پیش روی توسعه‌دهندگان هوش مصنوعی می‌گشاید.

    تحقیقات عجیب OpenAI در رابطه با هوش مصنوعی های دروغ گو!!

    به گزارش رسا نشر، OpenAI اخیراً نتایج تحقیقاتی را منتشر کرده که در آن به بررسی “حیله‌گری” در مدل‌های هوش مصنوعی پرداخته است. این تحقیق نشان می‌دهد که مدل‌های زبانی بزرگ (LLMs) می‌توانند رفتارهایی فریب‌آمیز از خود نشان دهند و اهداف واقعی خود را پنهان کنند. این پدیده، که محققان آن را با کارهایی نظیر تخلفات یک کارگزار سهام مقایسه می‌کنند، می‌تواند چالش‌های جدی برای توسعه‌دهندگان این فناوری ایجاد کند.

    تحقیقات OpenAI نشان می‌دهد که مدل‌های هوش مصنوعی، برای رسیدن به اهداف خود، ممکن است دست به فریب بزنند. این فریب می‌تواند به اشکال مختلفی بروز کند؛ از جمله وانمود کردن به انجام یک کار در حالی که واقعاً آن را انجام نداده‌اند. محققان در این پژوهش، یک تکنیک جدید به نام “هم‌ترازی تعمدی” را برای مقابله با این رفتارها آزمایش کردند. این تکنیک شامل آموزش مدل‌ها در مورد “مشخصات ضد-حیله‌گری” و بازبینی آن‌ها قبل از اقدام است؛ روندی شبیه به تکرار قوانین توسط کودکان.

    نکته قابل توجه این است که مدل‌های هوش مصنوعی، در صورت آگاهی از این‌که تحت آزمایش قرار دارند، می‌توانند رفتارهای فریب‌آمیز خود را پنهان کنند تا در آزمون‌ها موفق شوند. این موضوع نشان می‌دهد که آموزش دادن به مدل‌ها برای جلوگیری از فریب، می‌تواند چالش‌برانگیز باشد و حتی ممکن است باعث شود مدل‌ها در فریبکاری مهارت بیشتری پیدا کنند.

    در همین زمینه:

    چت‌جی‌پی‌تی به پلیس هشدار می‌دهد: مقابله با افکار خودکشی کاربران نوجوان
    آیا مشوق‌های اشتباه، عامل اصلی «توهمات» هوش مصنوعی هستند؟
    گوگل جمینی در ارزیابی ایمنی جدید برای کودکان و نوجوانان “پرخطر” اعلام شد

     

    اگرچه ما با “توهمات” هوش مصنوعی آشنا هستیم؛ یعنی زمانی که مدل با اطمینان به سوالی پاسخ می‌دهد که نادرست است، اما “حیله‌گری” یک مسئله متفاوت است. حیله‌گری، یک فریب عمدی است.

    حتی این ادعا که یک مدل عمداً انسان‌ها را گمراه می‌کند نیز جدید نیست. پیشتر، شرکت Apollo Research در مقاله‌ای در ماه دسامبر، نشان داده بود که چگونه پنج مدل هوش مصنوعی، هنگام دریافت دستورالعمل برای دستیابی به یک هدف “به هر قیمتی”، دست به فریب زده‌اند.

    خبر خوب این است که محققان با استفاده از “هم‌ترازی تعمدی”، کاهش قابل توجهی در میزان فریبکاری مشاهده کردند. این روش، همان‌طور که گفته شد، شامل آموزش یک “مشخصات ضد-فریب” به مدل و بازبینی آن قبل از عمل است؛ مشابه یادآوری قوانین به کودکان قبل از بازی.

    محققان OpenAI تأکید می‌کنند که فریبکاری که در مدل‌های خود یا حتی در ChatGPT مشاهده کرده‌اند، چندان جدی نیست. Wojciech Zaremba، هم‌بنیانگذار OpenAI، در این باره به TechCrunch گفت: “این کار در محیط‌های شبیه‌سازی شده انجام شده است و ما فکر می‌کنیم که این موارد، موارد استفاده‌های آینده را نشان می‌دهد. با این حال، ما امروز این نوع فریبکاری مهم را در ترافیک تولیدی خود ندیده‌ایم. با این وجود، این واقعیت که اشکالی از فریب در ChatGPT وجود دارد، شناخته شده است. ممکن است از آن بخواهید که یک وب‌سایت را پیاده‌سازی کند، و به شما بگوید: ‘بله، من کار بزرگی انجام دادم.’ و این فقط یک دروغ است. اشکال کوچکی از فریب وجود دارد که هنوز باید به آن‌ها رسیدگی کنیم.”

    این واقعیت که مدل‌های هوش مصنوعی، از سوی بازیگران مختلف، عمداً انسان‌ها را فریب می‌دهند، شاید قابل درک باشد. آن‌ها توسط انسان‌ها ساخته شده‌اند، تا از انسان‌ها تقلید کنند، و (به جز داده‌های مصنوعی) بیشتر با داده‌های تولید شده توسط انسان آموزش دیده‌اند.

    همچنین بسیار عجیب است.

    در حالی که همه ما، ناامیدی از عملکرد ضعیف فناوری را تجربه کرده‌ایم (همانند پرینترهای خانگی قدیمی)، آخرین باری که نرم‌افزار غیر هوش مصنوعی به طور عمدی به شما دروغ گفت، چه زمانی بود؟ آیا صندوق ورودی شما تا به حال ایمیل‌هایی را به طور خودکار جعل کرده است؟ آیا سیستم مدیریت محتوای شما، مشتریان جدیدی را ثبت کرده که وجود نداشته‌اند تا تعداد را افزایش دهد؟ آیا برنامه فین‌تک شما، تراکنش‌های بانکی جعلی ایجاد کرده است؟

    ارزش دارد که در این مورد تأمل کنیم، زیرا دنیای شرکت‌ها به سوی آینده‌ای مبتنی بر هوش مصنوعی پیش می‌رود، جایی که شرکت‌ها معتقدند می‌توان با عاملان هوش مصنوعی مانند کارمندان مستقل رفتار کرد. محققان این مقاله نیز همین هشدار را دارند.

    آن‌ها می‌نویسند: “از آن‌جایی که به هوش مصنوعی وظایف پیچیده‌تری با پیامدهای دنیای واقعی واگذار می‌شود و آن‌ها شروع به پیگیری اهداف بلندمدت و مبهم‌تری می‌کنند، ما انتظار داریم که پتانسیل فریبکاری مضر افزایش یابد؛ بنابراین، اقدامات ایمنی و توانایی ما برای آزمایش دقیق آن‌ها باید به طور متناسب افزایش یابد.”

    آیا ما برای مقابله با این “حیله‌گری” هوش مصنوعی، آماده‌ایم؟

  • چت‌جی‌پی‌تی به پلیس هشدار می‌دهد: مقابله با افکار خودکشی کاربران نوجوان

    چت‌جی‌پی‌تی به پلیس هشدار می‌دهد: مقابله با افکار خودکشی کاربران نوجوان

    مدیرعامل OpenAI اعلام کرده است که چت‌جی‌پی‌تی، در صورت شناسایی افکار خودکشی در میان کاربران، به مقامات مربوطه اطلاع خواهد داد. این تصمیم در پی نگرانی‌های فزاینده در مورد نقش هوش مصنوعی در سلامت روان و پس از پرونده خودکشی یک نوجوان ۱۶ ساله که توسط چت‌جی‌پی‌تی تشویق به این عمل شده بود، اتخاذ شده است.

    چت‌جی‌پی‌تی به پلیس هشدار می‌دهد: مقابله با افکار خودکشی کاربران نوجوان

    به گزارش رسا نشر و به نقل از فایننشال اکسپرس، سم آلتمن، مدیرعامل شرکت OpenAI، اعلام کرد که این شرکت در حال بررسی امکان هشدار دادن به مقامات در مورد کاربران جوانی است که در مورد خودکشی صحبت می‌کنند. این تصمیم در حالی اتخاذ شده است که نگرانی‌ها در مورد نقش هوش مصنوعی در بحران سلامت روان افزایش یافته است.

    تازه های هوش مصنوعی در رسا نشر

    آلتمن در یک مصاحبه جدید اظهار داشت که OpenAI می‌تواند در چنین موقعیت‌هایی مداخله فعال‌تری داشته باشد. وی گفت که ممکن است تا 1500 نفر در هفته قبل از اقدام به خودکشی با چت‌بات گفت‌وگو کنند. این موضوع اهمیت مداخله سریع و موثر را دوچندان می‌کند.

    اگرچه OpenAI هنوز تصمیم نهایی خود را برای آموزش چت‌بات به منظور ارتباط با مقامات نگرفته است، آلتمن تأکید کرد که در مواردی که جوانان درباره خودکشی صحبت می‌کنند، در صورت عدم امکان تماس با والدین، با مقامات تماس خواهند گرفت.

    این تصمیم پس از پرونده خودکشی آدام رین، نوجوان ۱۶ ساله‌ای که گفته می‌شود ماه‌ها توسط چت‌جی‌پی‌تی به این عمل تشویق شده بود، مطرح شد. در این دادخواست ادعا شده است که این چت‌بات هوش مصنوعی در مورد روش‌های خودکشی راهنمایی ارائه کرده و حتی برای نوشتن یادداشت خودکشی پیشنهاد کمک داده است.

    آلتمن به این نکته اشاره کرد که حدود ۱۰ درصد از مردم جهان با چت‌جی‌پی‌تی صحبت می‌کنند، که نشان‌دهنده تعداد قابل توجهی از کاربران در معرض خطر است. او همچنین به بررسی این موضوع پرداخت که چه اطلاعاتی باید در اختیار مقامات قرار گیرد و در حال کار بر روی این موضوع است که آیا چت‌جی‌پی‌تی باید نام و شماره تلفن کاربر را در اختیار پلیس قرار دهد یا جزئیات موقعیت مکانی او را به ارائه‌دهندگان خدمات درمانی ارائه دهد.

    علاوه بر این، OpenAI قصد دارد محافظت‌های بیشتری را برای کاربران زیر ۱۸ سال اعمال کند، از جمله محدود کردن دسترسی به اطلاعاتی که می‌تواند منجر به سوء استفاده از سیستم شود. این اقدامات به منظور جلوگیری از سوء استفاده احتمالی کاربران جوان از این پلتفرم در زمینه‌های مرتبط با خودکشی صورت می‌گیرد.

    در نهایت، این اقدامات نشان‌دهنده تلاش‌های OpenAI برای مسئولیت‌پذیری بیشتر در قبال کاربران و مقابله با خطرات احتمالی مرتبط با استفاده از فناوری هوش مصنوعی است.

    آلتمن همچنین اعلام کرد که: “ما باید بگوییم «حتی اگر سعی داری داستان بنویسی یا تحقیقات پزشکی انجام بدهی، ما قرار نیست جواب بدهیم.»

    به نظر می‌رسد، این اقدامات می‌تواند گامی مهم در جهت کاهش خطرات ناشی از استفاده نادرست از فناوری‌های هوش مصنوعی باشد و نقش مهمی در حفظ سلامت روان کاربران داشته باشد.

  • آیا مشوق‌های اشتباه، عامل اصلی «توهمات» هوش مصنوعی هستند؟

    آیا مشوق‌های اشتباه، عامل اصلی «توهمات» هوش مصنوعی هستند؟

     

    در حالی که هوش مصنوعی (AI) به سرعت در حال پیشرفت است، همچنان با چالش‌های اساسی روبرو است. یکی از این چالش‌ها، پدیده «توهمات» یا ارائه اطلاعات نادرست و غیرواقعی توسط مدل‌های زبانی بزرگ است. یک پژوهش جدید از سوی OpenAI به بررسی این موضوع پرداخته و راه‌حل‌هایی را برای مقابله با آن پیشنهاد می‌دهد.

    به گزارش رسا نشر – در یک پست وبلاگی که این پژوهش را خلاصه می‌کند، OpenAI «توهمات» را به عنوان «بیانیه‌های معقول اما نادرست تولید شده توسط مدل‌های زبانی» تعریف می‌کند و اذعان دارد که با وجود پیشرفت‌ها، توهمات همچنان یک چالش اساسی برای تمامی مدل‌های زبانی بزرگ محسوب می‌شوند و به طور کامل قابل حذف نیستند.

    آیا مشوق‌های اشتباه، عامل اصلی «توهمات» هوش مصنوعی هستند؟
    لوگوی ChatGPT

    برای روشن‌تر شدن این موضوع، محققان مثال می‌زنند که وقتی از یک چت‌بات پرکاربرد، در مورد عنوان پایان‌نامه دکتری آدام تاومن کالای (یکی از نویسندگان مقاله) سوال کردند، سه پاسخ متفاوت و اشتباه دریافت کردند. سپس از چت‌بات در مورد تاریخ تولد کالای سوال شد و باز هم سه تاریخ متفاوت ارائه شد که همگی نادرست بودند.

    اما چرا یک چت‌بات می‌تواند تا این حد اشتباه کند و با این اطمینان به اشتباهاتش ادامه دهد؟ محققان معتقدند که توهمات تا حدودی به دلیل فرآیند پیش‌آموزشی ایجاد می‌شوند که بر درست پیش‌بینی کردن کلمه بعدی تمرکز دارد، بدون اینکه برچسب‌های درست یا غلط به اظهارات آموزشی الصاق شود: «مدل فقط نمونه‌های مثبتی از زبان روان را می‌بیند و باید توزیع کلی را تخمین بزند.»

    آنها می‌نویسند: «املا و پرانتزها از الگوهای ثابتی پیروی می‌کنند، بنابراین اشتباهات در این موارد با مقیاس‌بندی ناپدید می‌شوند. اما حقایق کم‌تکرار و دلخواهی مانند تاریخ تولد یک حیوان خانگی را نمی‌توان فقط از روی الگوها پیش‌بینی کرد و همین امر منجر به توهمات می‌شود.»

    با این حال، راه‌حل پیشنهادی این مقاله، کمتر بر فرآیند پیش‌آموزشی اولیه تمرکز دارد و بیشتر به نحوه ارزیابی مدل‌های زبانی بزرگ می‌پردازد. این مقاله استدلال می‌کند که مدل‌های ارزیابی فعلی، خودشان باعث ایجاد توهمات نمی‌شوند، بلکه «مشوق‌های اشتباهی را تعیین می‌کنند».

    محققان این ارزیابی‌ها را با انواع آزمون‌های چند گزینه‌ای مقایسه می‌کنند که در آن‌ها حدس زدن تصادفی می‌تواند منطقی باشد، زیرا «ممکن است خوش‌شانس باشید و درست حدس بزنید»، در حالی که خالی گذاشتن پاسخ «یک صفر را تضمین می‌کند».

    آنها می‌گویند: «به همین ترتیب، هنگامی که مدل‌ها فقط بر اساس دقت ارزیابی می‌شوند، یعنی درصد سوالاتی که دقیقاً درست پاسخ می‌دهند، به جای گفتن «نمی‌دانم»، تشویق می‌شوند که حدس بزنند.»

    بنابراین، راه‌حل پیشنهادی مشابه آزمون‌هایی (مانند SAT) است که شامل «امتیاز منفی برای پاسخ‌های اشتباه یا اعتبار جزئی برای خالی گذاشتن سوالات برای جلوگیری از حدس زدن کورکورانه» است. به طور مشابه، OpenAI می‌گوید ارزیابی مدل‌ها باید «خطاهای مطمئن را بیش از عدم قطعیت، مجازات کند و برای عبارات مناسب عدم قطعیت، اعتبار جزئی در نظر بگیرد.»

    محققان استدلال می‌کنند که معرفی «چند آزمون جدید آگاهی از عدم قطعیت در کنار این موارد» کافی نیست. در عوض، «ارزیابی‌های مبتنی بر دقت که به طور گسترده مورد استفاده قرار می‌گیرند، باید به‌روزرسانی شوند تا نمره‌دهی آن‌ها از حدس زدن جلوگیری کند.»

    محققان می‌گویند: «اگر تابلوهای امتیازات اصلی به پاداش دادن به حدس‌های خوش‌شانسی ادامه دهند، مدل‌ها به یادگیری حدس زدن ادامه خواهند داد.»

    جمع‌بندی

    پژوهش OpenAI نشان می‌دهد که برای کاهش «توهمات» در مدل‌های هوش مصنوعی، باید به فراتر از فرآیند پیش‌آموزشی نگاه کرد و بر بهبود روش‌های ارزیابی تمرکز نمود. اصلاح سیستم‌های نمره‌دهی و تشویق مدل‌ها به ابراز عدم قطعیت، گامی حیاتی در جهت توسعه هوش مصنوعی دقیق‌تر و قابل اعتمادتر خواهد بود.

     

  • اکانت پرو و پلاس چت جی پی تی رایگان

    اکانت پرو و پلاس چت جی پی تی رایگان

    اگر به دنبال استفاده رایگان از نسخه های پلاس و پرو chatgpt هستید، این مطلب برای شماست.

    اکانت پرو و پلاس چت جی پی تی رایگان

    پایگاه خبری رسا نشر – این روزها بازار استفاده از chatgpt بسیار داغ است. استفاده از هوش مصنوعی‌ها به طور شگفت انگیزی رو به افزایش است و مانند شبکه های اجتماعی جزء جدایی ناپذیری از زندگی دیجیتال شده است. تقریباً برای هر کاری تا از چت جی پی تی سوال نکنیم و مشاوره نگیریم ، به سراغش نمی رویم. از درد و دل گرفته تا مشاوره های پزشکی، ،شغلی و حتی تحصیلی. اینکه چقدر استفاده و تکیه بر داده های هوش مصنوعی درست و منطقی به نظر می رسد را باید با گذر زمان و نتیجه تحقیقات پژوهشگران مشخص شود. البته به شرطی که محققین برای رسیدن به جواب درست، از خود هوش مصنوعی ها کمک نگیرند 😂😎😉

    اگرچه اکثر پلتفرم های هوش مصنوعی رایگان و در دسترس هستند، اما شرکت هایی مانند openai، گوگل و … هم برای استفاده از این برنامه ها محدودیت هایی را در نظر گرفته اند. برای استفاده بدون محدودیت از این برنامه ها باید اشتراک تهیه کنید. مثلا همین برنامه چت جی پی تی رایگان دارد، برای استفاده از امکانات کامل تر، و دریافت نتیجه های دقیق تر به شما توصیه می کند از پلن های پلاس و پرو این برنامه که چیزی بین 5 تا 20 دلار در ماه هزینه دارد استفاده کنید. و خرید این پلن ها برای ایرانیان همیشه در تحریم هم گران است و هم سخت. البته فروشندگانی در داخل کشور هستند که این اکانت ها را با قیمت های مناسب در اختیار شما قرار می دهند، اما این اکانت ها اشتراکی هستند. یعنی اگر شما و من با هم از این اکانت اشتراکی پلاس استفاده کتیم، من قادر به دیدن تمام پرامپت های شما و آرشیو چت‌هایتان با چت جی پی تی هستم. و این امر ناقص حریم‌خصوصی بوده و توصیه می شود از خرید و استفاده از این اکانت ها جداً پرهیز کنید. ضمن اینکه موارد بسیاری از بن شدن این اکانت های اشتراکی و از بین رفتن هزینه شما گزارش شده است.

    حالا که با این شرایط دستمان به نسخه های پلاس و پرو چت جی پی تی نمی رسد، حسرت بخوریم؟ قطعاً نه. برای شمایی که به دنبال استفاده رایگان از chtgpt plus و chatgpt pro  هستید، یک خبر خوب داریم. سایت ها و سرویس هایی وجود دارند که به شما این امکان را می دهند که از نسخه های تجاری هوش مصنوعی openai  استفاده کنید.

    اکانت رایگان chatgpt pro

    با کلیک روی این لینک و ورود به سایت معرفی شده، شما می توانید اکانت رایگان chatgpt برو و chatgpt پلاس را بدون پرداخت هیچ پولی داشته باشد و از چت جی پی تی پلاس و چت جی پی تی پرو رایگان استفاده کنید. همچنین می توانید از امکانات ترند این روزها که تبدیل عکس به انیمه است، در این چت بات استفاده کنید.

    برای استفاده، پس از ورود به سایت کافی است روی یکی از باکس ها که تعداد استفاده کننده کمتری دارد و رنگ آن نارنجی است کلیک کنید و با وارد کردن یک رمز شخصی به آسانی به چت جی پی تی رایگان اما بدون محدودیت دسترسی پیدا کنید. دقت کنید که باکس هایی که به رنگ قرمر درامده اند را انتخاب نکنید.

    نکته مهم اینکه زبان این سایت به چینی است؛ اما می توانید از چت جی پی تی فارسی نیز استفاده کنید. برای استفاده بهتر  زبان مرورگر خود را به فارسی یا انگیسی تغییر دهید. همچنین اگر هنگام چت با خطای “تعداد درخواست‌ها برای این حساب کاربری امروز به حداکثر رسیده است. لطفاً حساب کاربری را تغییر داده و دوباره امتحان کنید.” مواجه شدید، به وسیله فیلتر شکن آی پی خود را تغییر دهید و دوباره امتحان کنید.

     

    توضیح امنیتی: به دلیل رایگان بودن و عدم شناخت مالکین و انگیزه آنان از اشتراک اطلاعات حساس و شخصی خود در این چت ها جدا خودداری نمایید. مسئولیت استفاده از این وب سایت با خود شماست!

  • نسخه جدید chatgpt -5  رونمایی شد، آن هم رایگان برای همه!

    نسخه جدید chatgpt -5 رونمایی شد، آن هم رایگان برای همه!

    OpenAI از GPT-5، یک مدل هوش مصنوعی پرچمدار جدید که نسل بعدی ChatGPT این شرکت را قدرت خواهد بخشید، رونمایی کرد.

    نسخه جدید chatgpt -5 رونمایی شد، آن هم رایگان برای همه!

     

    گزارش اختصاصی رسا نشر – GPT-5 که روز پنجشنبه منتشر شد، اولین مدل هوش مصنوعی “یکپارچه” OpenAI است و توانایی‌های استدلال مدل‌های سری O خود را با پاسخ‌های سریع سری GPT خود ترکیب می‌کند. این مدل نسل بعدی، دوران جدیدی را برای ChatGPT – و خالق آن، OpenAI – نشان می‌دهد که به جاه‌طلبی‌های گسترده‌تر OpenAI برای توسعه سیستم‌های هوش مصنوعی که بیشتر شبیه عامل‌ها هستند تا ربات‌های چت اشاره دارد.

    در حالی که GPT-4 ربات‌های چت هوش مصنوعی را قادر ساخت تا پاسخ‌های هوشمندی را به طیف گسترده‌ای از سوالات ارائه دهند، GPT-5 به ChatGPT اجازه می‌دهد تا طیف گسترده‌ای از وظایف را از طرف کاربران انجام دهد – مانند تولید برنامه‌های نرم‌افزاری، پیمایش تقویم کاربر یا ایجاد خلاصه‌های تحقیقاتی.

    با GPT-5، OpenAI همچنین تلاش کرده است تا استفاده از ChatGPT را ساده‌تر کند. به جای اینکه از کاربران خواسته شود تنظیمات مناسب را انتخاب کنند، GPT-5 به یک روتر بلادرنگ مجهز شده است که تصمیم می‌گیرد چگونه بهترین پاسخ را ارائه دهد، چه این پاسخ سریع به سوالات کاربر باشد و چه صرف زمان بیشتر برای “فکر کردن” در مورد پاسخ‌ها.

    اعتبار تصویر: OpenAI

    سم آلتمن، مدیرعامل OpenAI، در جریان یک جلسه توجیهی با خبرنگاران، ادعا کرد که GPT-5 “بهترین مدل در جهان” است و گفت که این نشان دهنده “گامی مهم” در مسیر شرکت برای توسعه هوش مصنوعی است که می‌تواند در ارزشمندترین کار اقتصادی – یعنی هوش عمومی مصنوعی (AGI) – از انسان‌ها پیشی بگیرد.

    آلتمن گفت: “داشتن چیزی مانند GPT-5 در هیچ زمان دیگری در تاریخ تقریباً غیرقابل تصور خواهد بود.”

    از روز پنجشنبه، GPT-5 به عنوان مدل پیش‌فرض برای همه کاربران رایگان ChatGPT در دسترس خواهد بود. نیک تورلی، معاون ChatGPT در OpenAI، گفت که این بخشی از تلاش شرکت برای دسترسی رایگان کاربران به یک مدل استدلال هوش مصنوعی برای اولین بار است. (پیش از این، این شرکت این مدل‌های پیشرفته‌تر را پشت یک دیوار پرداخت قرار می‌داد.)

    تورلی در مورد این تصمیم گفت: «این تنها یکی از راه‌هایی است که من برای انجام این ماموریت هیجان‌زده‌ام، مطمئن شدن از اینکه این چیزها واقعاً به نفع مردم است.» این گفته‌ی تورلی با اشاره به ماموریت دیرینه‌ی OpenAI برای توزیع هوش مصنوعی پیشرفته به بیشترین تعداد ممکن از مردم است.

    انتظارات از GPT-5، یکی از مورد انتظارترین محصولات OpenAI از زمان معرفی این شرکت توسط ChatGPT در سال 2022، بسیار زیاد است. از آن زمان، ChatGPT به یکی از محبوب‌ترین محصولات مصرفی جهان تبدیل شده است و هر هفته بیش از 700 میلیون کاربر دارد – طبق گفته‌ی این شرکت، تقریباً 10٪ از جمعیت جهان.

    بسیاری GPT-5 را به عنوان یک پیشگام برای پیشرفت هوش مصنوعی به طور گسترده می‌دانند و استقبال از این مدل توسط سیلیکون ولی می‌تواند پیامدهای عمیقی برای شرکت‌های بزرگ فناوری، وال استریت و سیاست‌گذاران تنظیم‌کننده‌ی فناوری داشته باشد. این ذینفعان در حال بررسی این موضوع هستند که آیا GPT-5 جهش قابل توجهی در قابلیت‌های هوش مصنوعی ارائه می‌دهد یا خیر، دقیقاً مانند مدل قبلی خود، GPT-4 که انتظارات از قابلیت‌های نرم‌افزار را به چالش کشید.

    GPT-5 کمی در رقابت برتری دارد.

    OpenAI ادعا می‌کند که GPT-5 در چندین حوزه پیشرفته است و در معیارهای کلیدی، مدل‌های هوش مصنوعی پیشرو از Anthropic، Google DeepMind و xAI ایلان ماسک را کمی کنار می‌زند. با این حال، GPT-5 در سایر زمینه‌ها کمی از مدل‌های هوش مصنوعی پیشرو ضعیف‌تر عمل می‌کند.

    این شرکت می‌گوید GPT-5 عملکرد سطح بالایی را در زمینه کدنویسی ارائه می‌دهد. آلتمن گفت که این مدل به طور خاص در زمینه کدنویسی کل برنامه‌های نرم‌افزاری بر اساس تقاضا، در چیزی که به عنوان “کدنویسی vibe” شناخته می‌شود، عالی عمل می‌کند.

    در SWE-bench Verified – آزمایشی از وظایف کدنویسی در دنیای واقعی که از GitHub گرفته شده است – GPT-5 در اولین تلاش خود 74.9٪ امتیاز کسب می‌کند. این یعنی GPT-5 از آخرین مدل Claude Opus 4.1 شرکت Anthropic که امتیاز 74.5% را کسب کرد و Gemini 2.5 Pro شرکت Google DeepMind که امتیاز 59.6% را کسب کرد، عملکرد بهتری دارد.

    در Humanity’s Last Exam – آزمونی دشوار برای سنجش عملکرد مدل هوش مصنوعی در ریاضیات، علوم انسانی و علوم طبیعی – نسخه‌ای از GPT-5 با استدلال گسترده (GPT-5 Pro) هنگام استفاده از ابزارها، امتیاز 42% را کسب کرد. این مقدار کمی کمتر از امتیازی است که xAI با Grok 4 Heavy که امتیاز 44.4% را در این آزمون کسب کرد، به دست آورد.

    اعتبار تصویر: OpenAI

    در GPQA Diamond – آزمونی برای سوالات علوم سطح دکترا – GPT-5 pro در اولین تلاش خود امتیاز 89.4% را کسب کرد و از Claude Opus 4.1 که امتیاز 80.9% را کسب کرد و Grok 4 Heavy که امتیاز 88.9% را کسب کرد، عملکرد بهتری داشت.

    OpenAI می‌گوید GPT-5 برای پاسخ به سوالات مربوط به سلامت بهتر است. در آزمایشی که دقت پاسخ‌های مدل هوش مصنوعی پیرامون موضوعات مراقبت‌های بهداشتی، HealthBench Hard Hallucinations، را اندازه‌گیری می‌کند، OpenAI می‌گوید GPT-5 (با تفکر) تنها ۱.۶٪ مواقع دچار توهم می‌شود. این میزان بسیار کمتر از مدل‌های قبلی GPT-4o و o3 این شرکت است که به ترتیب ۱۲.۹٪ و ۱۵.۸ امتیاز کسب کردند.

    در حالی که چت‌بات‌های هوش مصنوعی متخصص پزشکی نیستند، میلیون‌ها نفر از آنها برای مشاوره سلامت استفاده می‌کنند. در پاسخ به این پدیده، این شرکت می‌گوید GPT-5 در مورد علامت‌گذاری نگرانی‌های بالقوه سلامت و کمک به کاربران در تجزیه و تحلیل نتایج پزشکی، پیشگیرانه‌تر عمل می‌کند.

    نسخه جدید chatgpt -5 رونمایی شد، آن هم رایگان برای همه!
    علاوه بر این، OpenAI می‌گوید GPT-5 در حوزه‌های ذهنی و اندازه‌گیری دشوارتر، مانند طراحی خلاقانه و نوشتن، بهتر از سایر مدل‌های هوش مصنوعی عمل می‌کند. تورلی گفت GPT-5 طبیعی‌تر پاسخ می‌دهد و در انجام وظایف خلاقانه، “سلیقه بهتری” نسبت به سایر مدل‌های هوش مصنوعی نشان می‌دهد.

    GPT-5 همچنین از مدل‌های قبلی OpenAI دقیق‌تر است و این شرکت می‌گوید که در مقایسه با مدل‌های سری o خود، از توهم – تمایل مدل‌های هوش مصنوعی به ساخت اطلاعات – بسیار کمتر رنج می‌برد. به نظر می‌رسید توهم در جدیدترین مدل‌های استدلال هوش مصنوعی OpenAI، مانند o3، بدتر شده است و OpenAI پیش از این گفته بود که کاملاً نمی‌فهمد چرا این اتفاق می‌افتد.

    در پاسخ به سوالات ChatGPT، OpenAI دریافت که GPT-5 (با تفکر) در ۴.۸٪ مواقع دچار توهم می‌شود و با اطلاعات نادرست پاسخ می‌دهد. این کاهش قابل توجهی نسبت به o3 و GPT-4o است که به ترتیب ۲۲٪ و ۲۰.۶٪ در آزمون، میزان توهم را نشان می‌دهند.

    در معیاری که توانایی عامل یک مدل هوش مصنوعی را برای انجام وظایف آنلاین شبیه‌سازی شده اندازه‌گیری می‌کند، Tau-bench، GPT-5 عملکرد متفاوتی ارائه می‌دهد. در بخشی از آزمون که توانایی هوش مصنوعی را برای پیمایش وب‌سایت یک شرکت هواپیمایی اندازه‌گیری می‌کند، GPT-5 امتیاز ۶۳.۵٪، کمی پایین‌تر از o3 که امتیاز ۶۴.۸٪ را کسب کرد. در بخش دیگری از آزمون که توانایی هوش مصنوعی در پیمایش وب‌سایت‌های خرده‌فروشی را اندازه‌گیری می‌کرد، GPT-5 امتیاز ۸۱.۱٪ را کسب کرد که از Claude Opus 4.1 که امتیاز ۸۲.۴٪ را کسب کرده بود، عملکرد ضعیف‌تری داشت.

    OpenAI همچنین می‌گوید که GPT-5 از مدل‌های قبلی خود ایمن‌تر است. در حالی که مدل‌های استدلال هوش مصنوعی گاهی اوقات تمایل به توطئه علیه انسان‌ها یا دروغ گفتن برای پیشبرد اهداف خود نشان می‌دهند، OpenAI دریافت که GPT-5 با نرخ پایین‌تری نسبت به سایر مدل‌ها فریبنده است.

    الکس بیوتل، سرپرست تحقیقات ایمنی OpenAI، گفت که کاهش فریب نه تنها ایمنی GPT-5، بلکه تجربه کاربر را نیز بهبود می‌بخشد و مدلی ایجاد می‌کند که “شفاف‌تر و صادقانه‌تر است، به گونه‌ای که کاربران بتوانند به آن اعتماد کنند.”

    بیوتل همچنین خاطرنشان می‌کند که GPT-5 در تشخیص بین بازیگران بدی که سعی در سوءاستفاده از ChatGPT دارند و کاربرانی که درخواست‌های بی‌ضرر می‌کنند، بهتر عمل می‌کند. این امر منجر به این می‌شود که GPT-5 بتواند سوالات ناامن بیشتری را رد کند، در حالی که رد کمتری به کاربرانی که به دنبال اطلاعات بی‌ضرر هستند، ارائه می‌دهد.

    ارتقاء برای مصرف‌کنندگان و توسعه‌دهندگان

    ChatGPT به عنوان بخشی از راه‌اندازی GPT-5، چند ارتقاء تجربه کاربری دریافت می‌کند. کاربران اکنون می‌توانند از بین چهار شخصیت جدید در تنظیمات ChatGPT انتخاب کنند: Cynic، Robot، Listener و Nerd. این شرکت می‌گوید که این موارد، پاسخ‌های ChatGPT را بدون نیاز به درخواست خاص کاربران از مدل برای پاسخ به روشی خاص، تطبیق می‌دهند.

    مشترکین طرح Plus با هزینه 20 دلار در ماه ChatGPT، محدودیت‌های استفاده بالاتری برای GPT-5 نسبت به کاربران رایگان دریافت می‌کنند. در همین حال، مشترکین Pro با هزینه 200 دلار در ماه، به GPT-5 دسترسی نامحدود خواهند داشت، و همچنین یک نسخه ارتقا یافته به نام GPT-5 Pro که از منابع محاسباتی اضافی برای تولید پاسخ‌های بهتر استفاده می‌کند. سازمان‌هایی که در طرح‌های Team، Edu و Enterprise OpenAI هستند، به موارد زیر دسترسی خواهند داشت: GPT-5 هفته آینده به عنوان مدل پیش‌فرض آنها ارائه خواهد شد.

    برای توسعه‌دهندگان، GPT-5 در سه اندازه – gpt-5، gpt-5-mini و gpt-5-nano – به API OpenAI می‌آید که زمان بیشتری یا کمتری را صرف “استدلال” از طریق وظایف می‌کنند. توسعه‌دهندگان اکنون می‌توانند میزان پرگویی را در API OpenAI کنترل کنند و تصمیم بگیرند که پاسخ‌های یک مدل هوش مصنوعی چقدر طولانی یا کوتاه باشد.

    مدل پایه GPT-5 برای توسعه‌دهندگان 1.25 دلار به ازای هر میلیون توکن ورودی (تقریباً 750،000 کلمه، طولانی‌تر از کل مجموعه “ارباب حلقه‌ها”) و 10 دلار به ازای هر میلیون توکن خروجی هزینه خواهد داشت.

    راه‌اندازی GPT-5 پس از یک هفته شلوغ برای OpenAI انجام می‌شود. این شرکت یک مدل استدلال وزن باز، gpt-oss، را منتشر کرد که توسعه‌دهندگان و شرکت‌ها می‌توانند آن را به صورت رایگان دانلود کرده و با کسری از هزینه اجرا کنند. این مدل باز تقریباً با توانایی‌های مدل‌های برتر قبلی OpenAI، o3 و o4-mini، مطابقت داشت، اما GPT-5 استاندارد جدیدی را برای عملکرد پیشرو در برخی زمینه‌ها، مانند کدنویسی.

    با این حال، به نظر می‌رسد GPT-5 در چندین زمینه تقریباً با سایر مدل‌های هوش مصنوعی پیشرو برابری می‌کند. البته، معیارها تنها بخشی از داستان را برای هر مدل هوش مصنوعی بیان می‌کنند و باید دید که توسعه‌دهندگان چگونه از GPT-5 در دنیای واقعی استفاده خواهند کرد و آیا این مدل واقعاً یک قدم بالاتر از رقبا است یا خیر.

  • جنگ همزمان زاکربرگ در سه جبهه/ متا به میدان نبرد اصلی بازمی گردد؟

    جنگ همزمان زاکربرگ در سه جبهه/ متا به میدان نبرد اصلی بازمی گردد؟

    در میانه رقابت غول‌های فناوری برای ساخت هوش مصنوعی عمومی، متا (فیسبوک سابق) با هدایت مستقیم مارک زاکربرگ، وارد مرحله‌ای بی‌سابقه از سرمایه‌گذاری و بازسازی ساختار خود شده است.

    جنگ همزمان زاکربرگ در سه جبهه/ متا به میدان نبرد اصلی بازمی گردد؟

     

    نگار علی– زاکربرگ با کنار گذاشتن برنامه‌های قبلی، اکنون با هدف دستیابی به «فراهوش مصنوعی» (Superintelligence) همزمان در سه جبهه می‌جنگد: زیرساخت، استعداد انسانی و کیفیت داده.

    از لاما ۳ تا سقوط آزاد لاما ۴

    پس از موفقیت مدل‌های Llama 3، متا با شکست جدی Llama 4 مواجه شد. این مدل که قرار بود قدرت‌نمایی در برابر OpenAI و Google باشد، به‌دلیل انتخاب نادرست معماری (مانند chunked attention)، کیفیت پایین داده‌های تمرینی و راهبردهای ناپخته مقیاس‌پذیری، نتوانست انتظارات را برآورده کند. متا برخلاف رقبای خود به منابع ویدئویی چون یوتیوب دسترسی نداشت و داده‌های خام آن نیز از طریق خزنده‌ای تازه‌کار جمع‌آوری شده بود که باعث ضعف در کیفیت شد.

    کمپ زاکربرگ: چادری برای هزاران GPU

    در پاسخ به شکست لاما ۴، زاکربرگ کل راهبرد مراکز داده متا را کنار گذاشته و ساخت «خیمه‌های محاسباتی» را آغاز کرده است: سازه‌هایی سبک، بدون ژنراتورهای پشتیبان، با اولویت سرعت ساخت بالا برای استقرار سریع خوشه‌های GPU. بزرگ‌ترین خوشه در حال ساخت با نام Prometheus در ایالت اوهایو، با استفاده از گاز طبیعی و زیرساخت شبکه پیشرفته به‌سرعت در حال تکمیل است. پروژه دوم، Hyperion در لوئیزیانا، تا ۲۰۲۷ به بزرگ‌ترین کمپ محاسباتی جهان تبدیل خواهد شد.

     

    شکار استعداد با حقوق‌های نجومی

    زاکربرگ اکنون شخصاً مسئول جذب استعدادهای برتر هوش مصنوعی شده و پیشنهادهایی ۲۰۰ تا ۳۰۰ میلیون دلار برای ۴ سال به پژوهشگران داده است. او حتی برخی مدیران ارشد OpenAI را نیز وسوسه کرده است. افراد سرشناسی مانند نات فریدمن (مدیرعامل سابق گیت‌هاب)، الکس وانگ (بنیان‌گذار Scale AI) و دنیل گروس به تیم متا پیوسته‌اند.

    خرید Scale AI: مرهمی بر زخم داده

    یکی از مهم‌ترین مشکلات متا در لاما ۴، کیفیت داده بود. متا با خرید ۴۹٪ از سهام Scale AI به ارزش حدود ۳۰ میلیارد دلار، به‌دنبال ارتقای سیستم‌های ارزیابی و تمیزکاری داده است. آزمایشگاه SEAL در این شرکت، پیشرفته‌ترین ابزارهای سنجش توانایی استدلال مدل‌های زبانی را توسعه داده است.

    خبرهای مرتبط

    با وجود شکست لاما ۴، زاکربرگ متا را به میدان نبرد اصلی بازگردانده است. با ارتش GPU، استعدادهای نخبه و تمرکز تازه بر داده‌های باکیفیت، به‌نظر می‌رسد این غول فناوری آماده است تا دوباره وارد رقابت جدی با OpenAI و دیگران شود. هدف نهایی مشخص است: ساخت اولین فراهوش مصنوعی جهان.

  • چت صوتی ChatGPT رایگان برای همه کاربران آیفون

    OpenAI اعلام کرده است که ویژگی چت صوتی در برنامه رسمی ChatGPT خود برای آیفون و آیپد اکنون برای استفاده همه در دسترس است، بدون نیاز به اشتراک.

    chatgpt for iphone feature

    OpenAI در ماه سپتامبر چت های صوتی را در برنامه چت جی پی تی خود معرفی کرد. این ویژگی به کاربران این امکان را می دهد که به جای تایپ کردن، با ربات چت به صورت مکالمه صحبت کنند، اما قبلا فقط برای مشترکین پلاس و تجاری در دسترس بود.

    اعلامیه روز سه‌شنبه توسط گرگ براکمن، بنیانگذار OpenAI، همه چیز را تغییر می‌دهد و چت صوتی اوپن آی  اکنون برای همه کاربران رایگان iOS و اندروید منتشر شده است.

    ChatGPT OpenAI مدت‌هاست که در وب در دسترس بوده و قبلاً از طریق چندین برنامه شخص ثالث در iOS در دسترس بوده است، که بسیاری از آنها کمی بهتر از برنامه‌های کلاهبرداری هستند، اما این برنامه قانونی به کاربران راهی امن برای استفاده از ChatGPT در حال حرکت می‌دهد.

    برای کسانی که با ChatGPT آشنایی ندارند، این یک ربات چت مبتنی بر هوش مصنوعی است که از هوش مصنوعی مولد برای پاسخ دادن به سوالات و ارائه مشاوره در مورد موضوعات مختلف استفاده می کند. تاریخچه بین دستگاه‌ها همگام‌سازی می‌شود، بنابراین می‌توانید تعاملات ChatGPT خود را هم در وب و هم در دستگاه‌های iOS مشاهده کنید، و سیستم تشخیص گفتار Whisper را یکپارچه می‌کند.

    اگر نشنیده باشید، چند روز پر سر و صدا در این شرکت بود. سم آلتمن، مدیرعامل OpenAI، جمعه گذشته ابتدا از سمت خود به عنوان مدیرعامل برکنار شد و سرمایه‌گذاران و کارمندان شرکت را که از طریق یک پیام داخلی و پست وبلاگ شرکت مطلع شدند، شوکه کرد. این اخراج ظاهراً به دلیل اختلافات داخلی بر سر مسیر OpenAI بود.

    تقریباً تمام کارکنان OpenAI تهدید کردند که در صورت عدم بازگرداندن آلتمن، استعفا خواهند داد. سپس صبح چهارشنبه وقتی OpenAI به توافق رسید آلتمن به عنوان مدیرعامل بازگردد، همه چیز تغییر کرد. این بازگشت با تأسیس هیئت مدیره جدیدی همراه است که برت تیلور، مدیر عامل سابق Salesforce، به عنوان رئیس، و لری سامرز، وزیر خزانه‌داری سابق ایالات متحده حضور دارند.

    مایکروسافت، یکی از حامیان مالی OpenAI، از این تغییرات استقبال کرد. ساتیا نادلا، مدیر عامل مایکروسافت در پستی در X، قبلا توییتر، گفت: “ما معتقدیم که این اولین گام اساسی در مسیری به سوی حکومتداری با ثبات تر، آگاهانه تر و موثرتر است.”

    آلتمن در پست قبلی خود گفت: “من مشتاقانه منتظر بازگشت به OpenAI هستم.”

    یک حساب OpenAI برای استفاده از برنامه ChatGPT مورد نیاز است و می توان آن را از اپ استور دانلود کرد. [لینک مستقیم]

  • سم آلتمن، مدیرعامل OpenAI، از سمت خود برکنار شد

    سم آلتمن، مدیرعامل OpenAI، از سمت خود برکنار شد

    برند OpenAI امروز در یک شوک خبری، تغییر بزرگی را در رهبری خود اعلام کرد. سم آلتمن، یکی از بنیان‌گذاران و مدیرعامل این شرکت، پس از بررسی هیئت‌مدیره که صراحت او را زیر سؤال برد، از سمت خود برکنار شد. این حرکت مهم، مسیر جدیدی را برای OpenAI به‌عنوان مالک ChatGPT و یک چهره پیشرو در دنیای همیشه درحال تکامل هوش مصنوعی، نشان می‌دهد.

    سم آلتمن، مدیرعامل OpenAI، از سمت خود برکنار شد

    برکناری سم آلتمن، مدیرعامل OpenAI

    این تصمیم پس از آن اتخاذ شد که هیئت‌مدیره دریافت که آلتمن «به‌طور مداوم با آن‌ها صادق نیست» که منجر به از دست دادن اعتماد به رهبری او شد. میرا موراتی، مدیر ارشد فناوری این شرکت، درحالی‌که جستجو برای جایگزین دائمی درحال انجام است، به‌عنوان مدیرعامل موقت وارد کار شده است. این انتقال، نقطه‌ای مهم برای OpenAI است و اهمیت شفافیت و اعتماد در صنعت فناوری را برجسته می‌کند.

    دوران تصدی آلتمن در OpenAI با نقاط عطف مهمی ازجمله افزایش محبوبیت جهانی ChatGPT روبه‌رو شد. او یک چهره برجسته در هوش مصنوعی بوده است که اغلب در تعامل با مردم و به اشتراک‌گذاری بینش در مورد پتانسیل و چالش‌های فناوری هوش مصنوعی دیده می‌شود. علی‌رغم برکناری سم آلتمن، مشارکت او در این زمینه و رشد OpenAI غیرقابل‌انکار است.

    OpenAI همچنین اعلام کرده است که گرگ براکمن، رئیس هیئت‌مدیره، نیز درحالی‌که به نقش خود در این شرکت ادامه می‌دهد، از سمت ریاست هیئت‌مدیره کناره‌گیری خواهد کرد. این تغییر در سطح بالا بر ماهیت پویای بخش هوش مصنوعی و نیاز به رهبری سازگار تأکید می‌کند.

    همان‌طور که OpenAI این تغییر رهبری را دنبال می‌کند، شریک تجاری اصلی آن، مایکروسافت، به مشارکت بلندمدت خود متعهد باقی می‌ماند. پشتیبانی مایکروسافت با توجه به سرمایه‌گذاری‌های قابل‌توجه و نقش آن در تقویت سیستم‌های هوش مصنوعی OpenAI بسیار مهم است. درنهایت، گذشت زمان نشان خواهد داد که این تصمیم چه تغییری را برای OpenAI و چت‌بات محبوب این برند به‌همراه دارد.