16:34 – 29 سپتامبر 1403
OpenAI کاربرانی را که کنجکاو در مورد توانایی های استدلال مدل هوش مصنوعی Strawberry این شرکت یا o1 هستند، تهدید کرده است. دلیل این تصمیم عجیب OpenAI هنوز مشخص نیست.
به گزارش Wired، خانواده مدل های هوش مصنوعی o1 یکی از جدیدترین محصولات OpenAI است که توانایی تفکر دارد. این فرم هفته گذشته در دسترس کاربران قرار گرفت. اما به نظر می رسد که سازنده علاقه ای به این ندارد که کاربران بدانند توانایی منطقی این مدل هوش مصنوعی چگونه کار می کند. OpenAI ایمیل هایی را برای کاربران ارسال کرد و از آنها خواست به این ویژگی و نحوه عملکرد آن توجه کنند.
بنابراین، کاربرانی که این درخواست OpenAI را رعایت نکنند، از این سرویس محروم خواهند شد. ایمیلی که برای کاربران ارسال شد بیان کرد که درخواست ChatGPT آنها به عنوان تلاشی برای دور زدن حفاظت علامت گذاری شده است. در این ایمیل همچنین اشاره شده است که نقض مکرر این قانون ممکن است منجر به قطع دسترسی به GPT-4o شود.
استنباط و بهره برداری از قطار فکر مهم ترین تفاوت بین مدل توت فرنگی با سایر مدل های ارائه شده توسط OpenAI است. این ویژگی به مدل هوش مصنوعی این امکان را میدهد تا گام به گام به کاربر توضیح دهد که چگونه به این پاسخ برسد. میرا موراتی، مدیر ارشد فناوری OpenAI، در مورد مدل هوش مصنوعی o1 گفت که این مدل یک پارادایم جدید برای فناوری است.
کاربرانی که ایمیلهای تهدیدآمیز از OpenAI دریافت کردهاند، میگویند استفاده از عبارت «ردیابی میانافزار» شرکت را نسبت به آنها حساس کرده است. برخی دیگر از کاربران نیز می گویند که استفاده از کلمه “متوسط” به آنها هشدار داده است.
در پاسخ به این موضوع، OpenAI در یک پست وبلاگی اعلام کرد که دلیل پنهان ماندن استدلال مدل هوش مصنوعی o1 این است که اگر یک ربات چت موضوعی را بیان می کند که سیاست های ایمنی را نقض می کند، نیازی به فیلتر کردن روش بیان آن برای کاربران ندارد.
منبع: دیجیاتو
منبع: https://www.yjc.ir/fa/news/8825681/openai-%DA%A9%D8%A7%D8%B1%D8%A8%D8%B1%D8%A7%D9%86-%DA%A9%D9%86%D8%AC%DA%A9%D8%A7%D9%88-%D8%AF%D8%B1-%D9%85%D9%88%D8%B1%D8%AF-%D9%85%D8%AF%D9%84-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-o1-%D8%B1%D8%A7-%D8%A8%D9%87-%D9%82%D8%B7%D8%B9-%D8%AF%D8%B3%D8%AA%D8%B1%D8%B3%DB%8C-%D8%AA%D9%87%D8%AF%DB%8C%D8%AF-%DA%A9%D8%B1%D8%AF