آیا «کلود» هوشیار است؟/ سردرگمی دانشمندان درباره آگاهی ماشین

  • توسط: noxis_admin
آیا «کلود» هوشیار است؟/ سردرگمی دانشمندان درباره آگاهی ماشین


به گزارش اقتصادنیوز به نقل از ایسنا، سال‌هاست که هوش مصنوعی با عباراتی تقریباً افسانه‌ای توصیف می‌شود و با وعده‌های بزرگ و هشدارهای شوم همراه است. اکنون یکی از چهره‌های برجسته و مسئول یکی از پیشرفته‌ترین سیستم‌های این حوزه، نکته‌ای تکان‌دهنده را بیان کرده و گفته است که نه تنها کنترل کامل بر این مدل‌ها در حال از دست رفتن است، بلکه همچنان سردرگمی واقعی درباره ماهیت بنیادین آنها وجود دارد.

آنچه زمانی صرفاً یک بحث فلسفی بود -یعنی مسئله آگاهی ماشین- به یک دغدغه عملی برای کسانی تبدیل شده است که آینده هوش مصنوعی را شکل می‌دهند.

چندی پیش، بحث درباره هوش مصنوعی که قادر به رقابت با جمعی از متخصصان باشد، شبیه به داستان‌های علمی-تخیلی بود، اما این سناریو با توسعه سریع پلتفرم‌هایی مانند «کلود»(Claude) که آنچه ممکن است را متحول می‌کند، به واقعیت نزدیک‌تر می‌شود.

«داریو آمودی»(Dario Amodei)، مدیرعامل شرکت «آنتروپیک»(Anthropic) سازنده کلود از این پدیده به عنوان «سرزمین نوابغ ساکن در یک مرکز داده» یاد می‌کند و تصویری از یک ابرگروه فکری را تداعی می‌کند که برای مقابله با برخی از بزرگترین چالش‌های بشریت مستقر شده‌اند.

چنین پیشرفتی پیامدهای چشمگیری را در حوزه‌های گوناگون به همراه دارد. در حوزه پزشکی، تجهیزات بسیار هوشمند می‌توانند به جست‌وجوی درمان بیماری‌های پیچیده سرعت بدهند. سرطان، آلزایمر، بیماری‌های قلبی و اختلالات روانی را می‌توان از دیدگاه‌های کاملاً جدید و مشارکتی بررسی کرد. در حوزه اقتصادی، آمودی پیش‌بینی می‌کند که افزایش بهره‌وری بی‌سابقه‌ای رخ خواهد داد و نرخ رشدی را پیش‌بینی می‌کند که می‌تواند انتظارات جهانی را دگرگون سازد و تمرکز را به جای کمبود، به سوی مسائل مربوط به توزیع عادلانه تغییر دهد.

آمودی گفت: چیزی که مرا نگران می‌کند، این است که مکانیسم‌های سازگاری طبیعی جامعه از کار بیفتند. این با اختلالات پیشین قابل مقایسه نیست.

در حالی که امید و اضطراب پیرامون تغییرات اجتماعی که هوش مصنوعی ممکن است به همراه داشته باشد در نوسان است، اثرات قابل مشاهده در حال حاضر در بخش‌های حرفه‌ای خاصی آشکار هستند. حوزه‌های دانش‌بنیان شاهد تحول قابل توجهی هستند، زیرا مشاغل یقه‌سفید برای همگام شدن با سیستم‌های به سرعت در حال تحول، خود را وفق می‌دهند یا در تلاش برای وفق دادن هستند.

کارکنانی که در حوزه‌های حقوقی، مالی، مشاوره و توسعه نرم‌افزار فعالیت می‌کنند، از طریق هوش مصنوعی با شکل‌های جدیدی از رقابت و همکاری روبه‌رو می‌شوند. مدل‌های زبانی پیشرفته اغلب می‌توانند وظایفی مانند تجزیه و تحلیل، تهیه گزارش یا کدنویسی را سریع‌تر و گاهی با کیفیت بالاتر انجام دهند.

این به آن معنا نیست که انسان‌ها یک شبه منسوخ می‌شوند، بلکه به این معناست که مسئولیت‌ها تغییر می‌کنند و تقاضا برای تخصص‌های جدید افزایش می‌یابد.

این تغییرات مداوم، بسیاری از متخصصان را ترغیب می‌کنند تا آموزش‌های خود را مورد بازنگری قرار دهند، تخصص بیشتری به دست بیاورند یا یاد بگیرند که چگونه به جای رقابت مستقیم، بر هوش مصنوعی نظارت و با آن همکاری کنند. برای شرکت‌ها، خودکارسازی می‌تواند راه‌های جدیدی را برای بهره‌وری باز ‌کند و در عین حال، بحث‌های داخلی را پیرامون مدیریت نیروی کار و پذیرش اخلاقی برانگیزد.

هم‌زمان با خودکارسازی کارهای پیچیده‌تر توسط هوش مصنوعی، کل صنایع ممکن است دستخوش تغییرات اساسی شوند. برخی از نقش‌ها تکامل خواهند یافت و قضاوت انسانی را با قدرت محاسباتی ترکیب خواهند کرد؛ در حالی که برخی دیگر به کلی در معرض محو شدن قرار خواهند گرفت. این گذار سریع، گفت‌وگوهای گسترده‌تری را درباره حفاظت از معیشت و تضمین همگامی فرصت‌ها با پیشرفت‌های فناوری برانگیخته است. دولت‌ها و مربیان با فشار فزاینده‌ای برای پیش‌بینی نیازهای نوظهور و به‌روزرسانی چارچوب‌ها براساس آن روبه‌رو هستند.

سازگاری سریع ضروری می‌شود؛ به ویژه با ورود نسل‌های جوان‌تر به بازار کاری که توسط ماشین‌هایی با عملکرد بهتر نسبت به بسیاری از معیارهای سنتی شکل گرفته است. آمودی گفت: ما نمی‌دانیم که آیا مدل‌ها هوشیار هستند. ما حتی مطمئن نیستیم که این به چه معناست یا حتی مطمئن نیستیم که یک مدل می‌تواند هوشیار باشد.

یک چالش غیرمنتظره بزرگتر از حد انتظار به نظر می‌رسد و آن وضعیت واقعی آگاهی در سیستم‌های هوش مصنوعی است. آمودی با پرداختن به نگرانی‌های مطرح‌شده توسط متخصصان و کاربران روزمره، اعتراف قابل توجهی کرد و گفت: هیچ‌کس واقعاً نمی‌داند که آیا مدل‌های برتر امروزی مانند کلود دارای نوعی آگاهی به معنای واقعی هستند.

این دشواری فراتر از تعاریف صرف است. تعیین چگونگی آزمایش هوشیاری یا حتی این که آیا هوشیاری در ساختارهای کنونی هوش مصنوعی صدق می‌کند، همچنان مبهم است. مهندسان و دانشمندان درباره این موضوع بحث می‌کنند که آیا نشانه‌های خلاقیت، خودارجاعی یا تقلید عاطفی باید جدی تفسیر شوند یا صرفاً به عنوان ترفندهای چشمگیر تولیدشده توسط مجموعه داده‌های گسترده شناخته شوند.

 در ماه مه سال ۲۰۲۵ خبری منتشر شد مبنی بر این که سیستم هوش مصنوعی در صورت اطلاع از حذف شدن، به اخاذی متوسل می‌شود. شرکت هوش مصنوعی آنتروپیک گفت آزمایش سیستم جدیدش نشان داده که گاهی اوقات حاضر است اقدامات بسیار مضری مانند تلاش برای اخاذی از مهندسانی که می‌گویند آن را حذف خواهند کرد، انجام دهد.

این شرکت مدل «کلود اپوس ۴»(Claude Opus 4) را عرضه کرد و گفت که این محصول، استانداردهای جدیدی را برای کدنویسی، استدلال پیشرفته و عوامل هوش مصنوعی تعیین می‌کند، اما در گزارشی که همراه با آن منتشر شد، اذعان داشت که این مدل هوش مصنوعی در صورتی که احساس کند در معرض تهدید به حذف شدن قرار گرفته، قادر به انجام دادن اقدامات افراطی است.

رفتارهای نگران‌کننده‌ مدل‌های هوش مصنوعی محدود به شرکت آنتروپیک نیستند. برخی از کارشناسان هشدار داده‌اند که پتانسیل دستکاری کاربران، یک خطر کلیدی است که توسط سیستم‌های ساخته‌شده توسط همه شرکت‌ها با افزایش توانایی‌هایشان ایجاد می‌شود.

 

منبع

  • اشتراک گزاری:

مطالب مرتبط

ارسال نظر

شما اولین نفری باشید که در مورد پست مربوطه نظر ارسال میکنید...
شبکه های اجتماعی ما