جنجال جدید در دنیای هوش مصنوعی؛ ارتباط OpenAI با Deepseek چین فاش شد
جنجال جدید در دنیای هوش مصنوعی؛ ارتباط OpenAI با Deepseek چین فاش شد
به گزارش زوم ارز، سام آلتمن، مدیرعامل OpenAI، به اعتراف رسیده که شرکت او با یک چالش روبروست. در جلسه پرسش و پاسخی Reddit AMA روز جمعه، سام اظهار کرد که احتمالاً OpenAI اشتباهی ارتکاب نموده است بر پردازش فناوری هوش مصنوعی خودش، که اکنون از آنجایی که Deepseek چین با مدلهای هوش مصنوعی منبع باز پیشرفت کرده، آنها را در مواجهه با تحریم و فشار قرار دادهاست.
سخنان دقیق سام این بود: “من شخصاً فکر می کنم که در سمت اشتباه تاریخ بوده ایم.” برای مردی که به ندرت (خوب همیشه) اشتباه می کند ، این بزرگ بود.
هفته گذشته، DeepSeek تنها یک مدل منبع باز را، که ارزان، قدرتمند و به طرزی شگفتانگیز نزدیک به قابلیتهای OpenAI است، انتخاب کرد. توسعهدهندگان عاشق آن شدهاند. مقابل این مدل رایگان بدون دروازه و به صورت رایگان، OpenAI برعکس عمل میکند؛ کاربران مجبور هستند ماهیانه ۲۰۰ دلار برای استفاده از ChatGPT Pro پرداخت کنند.
در یک جلسه Reddit AMA، سام اعلام کرد که تیمش در حال بررسی روشهای مختلف برای انجام ابتکارات حفاظت از حریم شخصی قبل از انتقال کنترل دادهها است. وی افزود: “ما در حال شناخت راهبردهای مختلف در حوزه منابع باز هستیم، اما این موضوع برای ما اولویت اصلی ندارد؛ زیرا به نظر میرسد تمام افراد در این شرکت اهمیت یکسانی به آن نمیدهند”.
کوین ویل، مدیر ارشد محصول در OpenAI، به دنبال جزئیات بیشتری بود. او اشاره کرد که OpenAI قصد دارد مدلهای قدیمی خود را مورد بررسی قرار دهد که دیگر به روز نیستند. وی تصریح کرد: “ما قطعاً قصد داریم درباره این موضوع بیشتر بحث کنیم و تصمیماتی بگیریم.”
Deepseek Openai را برای تجدید نظر در شفافیت
سام به تایید مشکل جالب دیگری رسید: مدلهای OpenAI فرآیندهای فکری خود را پنهان میکنند. در حال حاضر، اگر کاربر از سیستم پرسشی بپرسد، بدون آشکار کردن مراحل فکری خود، پاسخی را ایجاد میکند. پیشتر، OpenAI اعلام کرده بود که این مسئله را پنهان میکند به منظور پیشگیری از مهندسی معکوس در سیستمهای خود.
اما مدلهای Deepseek به شیوهای برعکس عمل میکنند. آخرین مدل استدلال آنها، R1، به کاربر نشان میدهد که گام به گام به کل زنجیره اندیشه پیش میرود. توسعهدهندگان و محققان این روش را بسیار قدرتمند میدانند، زیرا میتوانند به دقت ببینند که چگونه هوش مصنوعی عمل میکند و در صورت نیاز آنرا تنظیم کنند. شما میتوانید آزمایش Cryptopolitan را در زیر مشاهده کنید.
منبع: جی حمید
سام اعلام کرد که Openai نادیده گرفته شده است. او اظهار کرد: “ما در حال ارائه بیشتر از آنچه امروز در حال ارائه کردن هستیم، ما در حال نشان دادن یک طیف گسترده تری از قابلیتها هستیم.”
ویل مجددا این موضوع را تاکید کرد و اظهار کرد: “کابران با توانایی استدلال انتظار دارند و ما به آن پاسخ میدهیم. ما راه درست برای انجام این کار را پیدا خواهیم کرد.” اما او توضیح داد که همه چیز را آشکار نمیکنند، به ویژه مدلها که از نظر هنری محرز و گفت: “این تیم تحت فشار کاربران است تا اطلاعات بیشتری فاش کنند.”
شایعاتی درباره افزایش قیمت چتپ در طول AMA پخش شد. سام سریعاً این شایعات را رد کرد و اعلام کرد که هدف او ارزان شدن چتپ است، نه گرانتر شدن آن. با این حال، یک مسئله کوچک وجود دارد که باید حل شود.
به گفته سام، این شرکت در حال از دست دادن پول است. برنامه حرفهای ۲۰۰ دلاری در هر ماه سودآور نیست و به نظر میرسد که Openai به دنبال یافتن یک راهحل است.
AI Race Race مراکز داده عظیم ، معاملات دفاعی و خطرات بزرگ را سوخت می کند
در ایمی ایمی یویی که برگزار شد، سام اظهار کرد که گرسنگی OpenAI برای قدرت محاسبات بینهایت است. او توضیح داد که با پیشرفت مدلها، نیاز به مراکز داده گسترده از اهمیت بیشتری برخوردار میشود. سام افزود: به همین دلیل OpenAI پروژه Stargate خود را بهطور پرشورانه با رئیسجمهور ترامپ شروع کرد قبل از افتتاح آن در تاریخ ۱۶ ژانویه.
یک فرد درباره نقش هوش مصنوعی در توسعه سلاح پرسش کرد، اما این سوال باعث تاریک شدن مکالمه شد. ویل پاسخ داد که به دانشمندان کار کردن بر روی این پروژه اعتماد دارد و افزود که Openai می داند که جایی برای آزمایشات بی پروا وجود ندارد.
سام همچنین به معنای بهبودی بازگشتی خودکار فشار داده شد – جایی که هوش مصنوعی بدون نیاز به دخالت انسانی خود را بهبود می بخشد. وی اعتراف کرد که دیدگاهش را تغییر داده است و گفت که “سناریوی بالا رفتن” اکنون قابل قبول تر است.
بعضی افراد این را به عنوان یک دروازه برای هوش مصنوعی قابل توجه (AGI) میشناسند، در حالی که برخی دیگر نگرشی نگرانکننده را دارند که ممکن است به مواردی ناقابل کنترل ختم شود. AMA روز خود را رستاخیز نکرد. سام به روزرسانیهای مربوط به فناوری آینده، از جمله مدل استدلال بعدی O3 که در مدت زمان آینده منتظر ارائه آن هستیم، پرداخت.
او همچنین مدل GPT-5 را آزار داد، با اینکه به تاریخ انتشار وفادار نبود. همچنین، مدل تصویر نسل بعدی OpenAI به نام دال ۳ نیز معرفی شد. دو سال پیش که دال ۳ منتشر شد، دیگر به چالش قرار گرفته است. ویل تأیید کرده است که آنها بر روی یک جانشین کار میکنند و قول دادهاند که “این ارزش انتظار را دارد.”