خبر " خبری ترسناک: هوش مصنوعی به سطح انسانی رسید " | اقتصاد آفرین

خبر " خبری ترسناک: هوش مصنوعی به سطح انسانی رسید " | اقتصاد آفرین
  • امروز : شنبه - 2 فروردین - 1404
اخبار اقتصادی امروز : 21

سرخط اخبار اقتصادی

ادامه ترافیک سنگین در محورهای شمالی کشور ۲۱ کیلومتر بزرگراه و راه اصلی در خراسان رضوی ساخته شد هواشناسی ایران ۱۴۰۴/۱/۲؛ تداوم بارش‌ها تا روز دوشنبه انتقال تنها زندانی ایرانی در قرقیزستان به کشور هواشناسی امروز؛ ۲ فروردین| ادامه بارش های بهاری شاگرد اول اسماعیل کارتال ونزوئلا را به زانو درآورد! عکس نوروزی سردار آزمون در کنار همسر و دخترش تبریک تولد خاص AFC به رامین رضاییان + عکس ماجرای بازگشت مهدی ترابی به پرسپولیس گشایش نخستین ال‌سی روبل-ریال برای واردات غذای دام از روسیه آغاز برداشت گندم در استان‌های جنوبی کشور هوای پاک تهران در دومین روز سال تلخ و شیرین‌های تهران در ۱۴۰۳؛ از امیدهای سبز تا حوادث تلخ رشد ۶۴ درصدی قیمت TORN/ تحریم‌ها لغو شد! خداوند عزیز، این ۲۰سال اخیر را جزو عمر ما حساب نکن! یک‌میلیون چاه در ایران؛ ۳۵۰ هزار حلقه روی زمین‌های در حال فرونشست! صعود KAVA و نزول HBAR/ کدام ارز دیجیتال برای معامله بهتر است؟ افزایش قیمت‌ها به نفع کسبه نیست/ مردم قادر به خرید آجیل نیستند، چه برسد به لوازم خانگی! قفل توسعه اینترنت در تهران؛ شهرداری اجازه نمی‌دهد! استقبال عجیب از میهمانان ایستگاه فضایی بین‌المللی از انتصاب معاونین قوه قضاییه تا ۴ کلان پروژه قضایی نقشه ترامپ برای تسلیم دشمن | تعرفه های جدید در راه است تعین تکلیف تعرفه واردات تلفن همراه |‌ تعرفه این گوشی ها افزایش یافت کبریت تصمیمات اشتباه بر منابع ارزی/ جزئیات ۴ میلیارد دلار کم‌اظهاری صادرکنندگان در ۱۴۰۲ ‌


0
خبری ترسناک: هوش مصنوعی به سطح انسانی رسید
  • کد خبر : 507033
  • 09 دی 1403
خبری ترسناک: هوش مصنوعی به سطح انسانی رسید

اخیراً و درنتیجه آزمایشی که برای اندازه‌گیری هوش عمومی طراحی‌شده، یک مدل جدید هوش مصنوعی به نتایجی در سطح هوش انسانی دست‌یافته است.

غزال زیاری: اخیرا سیستم OpenAI o۳، توانست تا در معیار ARC-AGI به امتیاز ۸۵% برسد که به‌مراتب بالاتر از بهترین امتیاز ثبت‌شده توسط هوش مصنوعی قبلی یعنی ۵۵ درصد بود و امتیازی هم‌تراز با میانگین امتیاز انسانی به دست آورد. این سیستم به‌علاوه در یک آزمون ریاضی خیلی سخت هم نمره خوبی کسب کرد.

ایجاد هوش عمومی مصنوعی (AGI)، هدف تعیین‌شده همه آزمایشگاه‌های اصلی تحقیقاتی هوش مصنوعی است که در نگاه اول این‌طور به نظر می‌رسد که حداقل OpenAI گام بزرگی در جهت محقق کردن این هدف برداشته است.

در این میان که تردیدهای زیادی وجود دارد، بسیاری از محققان و توسعه‌دهندگان هوش مصنوعی حس می‌کنند که چیزی تغییر کرده و ازنظر خیلی از افراد، حالا چشم‌انداز AGI واقعی‌تر، فوری‌تر و نزدیک‌تر از حد انتظار به نظر می‌رسد؛ اما آیا حق با آن‌هاست؟

تعمیم و هوش

برای درک اینکه معنی واقعی نتیجه o۳ چیست، باید با مفهوم تست ARC-AGI آشنا شوید؛ ازنظر فنی، این آزمایش یک سیستم هوش مصنوعی از “کارایی نمونه” در انطباق با چیزی جدید است. (چند نمونه از یک موقعیت جدید که سیستم باید ببیند تا متوجه شود که چگونه کار می‌کند.)

یک سیستم هوش مصنوعی مثل ChatGPT (GPT-۴) خیلی کارآمد نیست. این سیستم بر روی میلیون‌ها نمونه از متون انسانی آموزش داده شد و قوانین احتمالی متعددی درباره متحمل‌ترین ترکیب‌های کلمات ایجاد کرد. نتیجه در کارهای معمول بسیار خوب بود ولی در کارهای غیرمعمول چندان خوب عمل نمی‌کرد؛ چراکه داده‌های کمتر (نمونه‌های کمتری) در مورد آن وظایف در اختیار داشت.

خبری ترسناک: هوش مصنوعی به سطح انسانی رسید

تا زمانی که سیستم‌های هوش مصنوعی نتوانند از تعداد مثال‌های کمی بیاموزند و با نمونه‌های کاربردی بیشتری سازگار شوند، فقط برای کارهای معمول و تکراری و البته مواردی که در آن‌ها ناکامی و شکست قابل‌پذیرش باشد، مورداستفاده قرار می‌گیرند. توانایی حل دقیق مسائل ناشناخته قبلی یا مشکلات جدید از نمونه‌های داده‌های محدود، به‌عنوان ظرفیت تعمیم شناخته می‌شود و این به شکل گسترده‌ای یک عنصر ضروری و اساسی هوش در نظر گرفته می‌شود.

شبکه‌ها و الگوها

معیار ARC-AGI برای انطباق کارآمد نمونه، با استفاده از مسئله‌های شبکه‌ای مربعی کوچک مانند نمونه زیر، آزمایش‌هایی را انجام می‌دهد و هوش مصنوعی باید الگویی را پیدا کند که شبکه سمت چپ را به شبکه سمت راست تبدیل کند.

خبری ترسناک: هوش مصنوعی به سطح انسانی رسید

در هر سؤال، سه مثال برای یادگیری ارائه می‌شود. سپس سیستم هوش مصنوعی باید قوانینی که در سه مثال قبلی آموخته را به نمونه چهارم تعمیم دهد. این‌ها خیلی شبیه به تست‌های IQ هستند.

قوانین ضعیف و سازگاری

ما دقیقاً نمی‌دانیم که OpenAI چطور این کار را انجام داده، اما نتایج حاکی از آن است که مدل o۳ سازگاری بالایی دارد و از چند مثال محدود می‌تواند قوانینی را کشف کند که قابل‌تعمیم دادن باشند.

برای کشف یک الگو، نباید فرض‌های غیرضروری داشته باشیم، یا دقیق‌تر ازآنچه واقعاً هستیم باشیم. در تئوری، اگر بتوانید ضعیف‌ترین قوانینی که کاری که را می‌خواهید انجام می‌دهند را شناسایی کنید، توانایی خود را برای سازگاری با موقعیت‌های جدید به حداکثر رسانده‌اید.

اما منظور از ضعیف‌ترین قوانین چیست؟ تعریف فنی آن پیچیده است، اما معمولاً قوانین ضعیف‌تر، آن‌هایی هستند که می‌توان آن‌ها را با عبارات ساده‌تری توصیف کرد. مثلاً در مثال بالا، یک تعریف ساده از قانون چیزی شبیه به این است: “هر شکلی با یک خط بیرون زده، به سمت انتهای آن خط حرکت می‌کند و هر شکل دیگری را که با آن همپوشانی دارد، می‌پوشاند.”

جستجوی زنجیره‌های فکری

در شرایطی که هنوز نمی‌دانیم که OpenAI چگونه به این نتیجه دست‌یافته، بعید است که آن‌ها عمداً سیستم o۳ را برای یافتن قوانین ضعیف بهینه کرده باشند. بااین‌حال، برای موفقیت در وظایف ARC-AGI باید آن‌ها را پیدا کرد.

ما می‌دانیم که OpenAI کار را با یک نسخه همه‌منظوره از مدل o۳ شروع کرد (که با اکثر مدل‌های دیگر متفاوت است؛ چراکه می‌تواند زمان بیشتری را صرف فکر کردن درباره سؤالات دشوار کند) و سپس آن را به‌طور خاص برای آزمون ARC-AGI آموزش داد.

فرانسوا شوله، محقق فرانسوی هوش مصنوعی که این معیار را طراحی کرده براین باور است که o۳ از طریق “زنجیره‌های فکری” مختلفی که گام‌هایی برای حل مسئله را توصیف می‌کنند، به جستجو می‌پردازد و درنهایت بر اساس برخی قاعده‌های تعریف‌شده یا هیوریستیک، بهترین را انتخاب می‌کند.

این بی‌شباهت به نحوه جستجوی سیستم AlphaGo گوگل که ممکن است در توالی‌های مختلفی از حرکات، برای شکست دادن قهرمان جهان Go اقدام می‌کند، نیست.

خبری ترسناک: هوش مصنوعی به سطح انسانی رسید

شما می‌توانید به این زنجیره‌های فکری مثل برنامه‌هایی که با نمونه‌ها مطابقت دارند، نگاه کنید؛ البته، اگر مثل هوش مصنوعی Go-playing باشد، به یک قانون هیوریستیک یا سست نیاز است تا بتواند تصمیم بگیرد که کدام برنامه بهترین است. ممکن است هزاران برنامه مختلف به‌ظاهر معتبر تولیدشده باشد. ابتکار ممکن است این باشد که شما “ضعیف‌ترین” یا “ساده‌ترین” را انتخاب کنید.

بااین‌حال، اگر مثل AlphaGo باشد، به‌سادگی یک هوش مصنوعی است که یک هیوریستیک ایجاد می‌کند. این روند برای AlphaGo بود و گوگل مدلی را آموزش داد تا توالی‌های مختلف حرکت به‌صورت بهتر یا بدتر از سایرین ارزیابی کند.

چیزی که ما هنوز نمی‌دانیم

سؤال اینجاست که آیا این واقعاً به AGI نزدیک‌تر است؟ اگر o۳ این‌طور کار می‌کند، پس مدل زیربنایی احتمالاً خیلی بهتر از مدل‌های قبلی نیست. مفاهیمی که مدل را از زبان می‌آموزد، ممکن است برای تعمیم، مناسب‌تر از قبل نباشد و در عوض، ممکن است شاهد یک “زنجیره فکری” تعمیم‌پذیرتر باشیم که از طریق مراحل اضافی آموزش هیوریستیک مخصوص برای این تست پیدا می‌شود.

تقریباً همه‌چیز در مورد o۳ ناشناخته است. OpenAI افشای اطلاعات را به چند ارائه رسانه‌ای و آزمایش اولیه برای تعداد محدودی از محققان، آزمایشگاه‌ها و مؤسسات ایمنی هوش مصنوعی محدود کرده و درنتیجه درک واقعی پتانسیل o۳ مستلزم تلاش‌های گسترده‌ای از ارزیابی و درک توزیع ظرفیت‌های آن گرفته تا تعداد دفعات شکست و تعداد دفعات موفقیت آن خواهد بود.

زمانی که درنهایت o۳ منتشر شود، تصور بهتری خواهیم داشت که آیا تقریباً به‌اندازه یک انسان معمولی سازگار است یا خیر. اگر این‌چنین باشد، این امر تأثیری بزرگ، انقلابی و اقتصادی خواهد داشت و عصر جدیدی از هوش سرعت یافته که قابلیت خودکاری برای بهبود دارد را آغاز خواهد کرد. ما به معیارهای جدیدی برای خود AGI و بررسی‌ای جدی در مورد نحوه اداره آن نیاز خواهیم داشت.

در غیر این صورت، بازهم این یک نتیجه چشمگیر خواهد بود. هرچند که زندگی روزمره ما تقریباً مانند قبل خواهد ماند.

 منبع: theconversation

۲۲۷۲۲۷

✅ آیا این خبر اقتصادی برای شما مفید بود؟ امتیاز خود را ثبت کنید.
[کل: ۰ میانگین: ۰]
لینک کوتاه : https://eghtesadafarin.com/?p=507033

💬 نظرات خود را با ما در میان بگذارید

مجموع دیدگاهها : 0
📜 قوانین ارسال نظرات کاربران
  • دیدگاه های ارسال شده شما، پس از بررسی توسط تیم اقتصاد آفرین منتشر خواهد شد.
  • پیام هایی که حاوی توهین، افترا و یا خلاف قوانین جمهوری اسلامی ایران باشد منتشر نخواهد شد.
  • لازم به یادآوری است که آی پی شخص نظر دهنده ثبت می شود و کلیه مسئولیت های حقوقی نظرات بر عهده شخص نظر بوده و قابل پیگیری قضایی می باشد که در صورت هر گونه شکایت مسئولیت بر عهده شخص نظر دهنده خواهد بود.