این فناوری به میزان سلاح هسته ای خطرناک است!

به گزارش تور کانادا، دانشمندان هوش مصنوعی در حال توسعه یک مغز دیجیتالی هستند که می تواند مغز انسان را پشت سر بگذارد و به گفته یکی از متخصصان این حوزه اینجا جایی است که ما باید بترسیم.

این فناوری به میزان سلاح هسته ای خطرناک است!

کوین باراگونا، بنیانگذار DeepAI هشدار داد که رشد سریع سیستم های اطلاعاتی مافوق بشری نوید نوع جدیدی از آینده را خواهد داد که باید انسان را وحشتزده کند. شنیدن این حرف ها و درخواست سرکوب فناوری از جانب مردی که معیشت و یک دهه زندگی خود را صرف هوش مصنوعی مولد نموده، شاید غیرعادی به نظر برسد.

باراگونا توسعه سریع هوش مصنوعی مولد پیشرفته -ابزار های یادگیری ماشینی به هم پیوسته که می تواند برای فراوری هنر، موسیقی و حتی ایده ها استفاده گردد- را با پرورش یک مغز دیجیتال مقایسه کرد و هشدار داد درست همان طور که هنوز فکر انسان را به طور کامل درک ننموده ایم، ممکن است به نقطه ای برسیم که دیگر قادر به فهم هوش مصنوعی نباشیم.

او در نگرشی تلخ نسبت به آینده گفت: اگر کامپیوتر هایی باهوش تر از انسان بسازیم دیگر چه چیزی برای انسان باقی می ماند؟ ما در حال ساخت چه نوع آینده ای هستیم؟

او هشدار داد که توسعه سریع هوش مصنوعی که با ابزار های شدیدا تحت کنترل مانند ChatGPT معروف شده است، قابل مقایسه با خطر ناشی از سلاح های هسته ای است.

باراگونا گفت: این فناوری به سرعت در جهت منافع خود در حال توسعه است. و ترسی که وجود دارد این است که این مغز های هوش مصنوعی به زودی به سطح هوشی بالاتر از انسان برسند و اینکه آیا می توانیم از این شرایط جان سالم به در ببریم؟

او گفت: ما در این کار آنقدر خوب هستیم که در حال حاضر هوش مصنوعی می تواند بسیاری از کار های مشابهی که مغز انسان قادر به انجام آن است را انجام بدهد. و هشدار داد: این موضوع جنگی بین دولت ها به وجود نخواهد آورد، بلکه نبرد واقعی بین هوش مصنوعی و بشریت خواهد بود.

کوین باراگونا که در دنیای مولد هوش مصنوعی حرفه ای است این پیشرفت را سلاح هسته ای نرم افزاری توصیف می نماید که بدون هیچ گونه توجهی در حال رها شدن است.

سیستم های هوش مصنوعی مولد در آموزش خود چنان سرعتی دارند که از انتظارات فراتر می روند و داده های هرچه بیشتری را مهار و از الگوریتم های پیچیده تری استفاده می نمایند.

الیزر یودکوفسکی، کارشناس برجسته هوش مصنوعی، این پدیده را سقوط به سوی فاجعه می نامد؛ جایی که محتمل ترین نتیجه آن این است که هوش مصنوعی چیزی که ما می خواهیم را انجام نمی دهد و به ما و به طور کلی به زندگی دارای درک و احساس اهمیتی نمی دهد.

اواخر ماه مارس بیش از هزار متخصص برجسته هوش مصنوعی در نامه ای سرگشاده خواهان ممنوعیت فوری شش ماهه آموزش سیستم های هوش مصنوعی قدرتمند شدند که در رقابتی کنترل نشده برای توسعه و استقرار مغز های دیجیتال کوشش می نمایند؛ مغز های دیجیتالی که هیچ کس حتی سازندگان آن ها قادر به درک، پیش بینی یا کنترل آن ها نخواهند بود.

کوین باراگونا که همراه با افرادی نظیر استیو وزنیاک، از بنیانگذاران اپل و ایلان ماسک، از امضانمایندگان این نامه بود می گوید: امید داشتیم که یک موج اختلال شش ماهه ایجاد کنیم تا مردم را به فکر واداریم.

با این حال او هنوز به ماموریت کلی هوش مصنوعی شدیدا معتقد است؛ اینکه یادگیری ماشینی می تواند بسیاری از مسائل را حل نماید و زندگی را به سمت بهتر شدن تغییر دهد و حتی منجر به پیشرفت های پزشکی گردد. اما بازهم خطر جایگزینی میلیارد ها شغل با ربات ها را نیز در پی دارد و به گفته او ممکن است رهبران هوش مصنوعی در نهایت همه ما را بکشند.

در ماه جاری، بیش از یک سوم پژوهش های فناوری که به وسیله دانشگاه استنفورد در کالیفرنیا مورد آنالیز قرار گرفتند، به این نتیجه رسیدند که تصمیمات اتخاذشده به وسیله هوش مصنوعی می تواند فاجعه ای به مقدار یک جنگ هسته ای همه جانبه در قرن جاری ایجاد کند.

باراگونا می گوید: در پنج سال آینده هوش مصنوعی به مقدار ای که گوگل امروز در زندگی روزمره مردم جای دارد، جای خواهد گرفت. 10 سال دیگر، آینده شبیه فیلم های علمی تخیلی خواهد شد و این باید همه را وحشتزده کند.

منبع: روزیاتو

منبع: فرارو
انتشار: 30 خرداد 1402 بروزرسانی: 30 خرداد 1402 گردآورنده: tour-canada.ir شناسه مطلب: 1772

به "این فناوری به میزان سلاح هسته ای خطرناک است!" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "این فناوری به میزان سلاح هسته ای خطرناک است!"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید