دمیدن روح در هوش مصنوعی: مروری بر هوش مصنوعی دارای شخصیت

خانهمقالاتدمیدن روح در...

آنچه می‌خوانید...

spot_img
spot_img

اگر توسعه‌دهندگان هوش مصنوعی را انسانی‌تر کنند، ممکن است به جای اینکه ما را به بردگی بگیرد، با ما انسا‌ن‌ها دوست شود. اما در صورت ارتقای نرم افزار یک هوش مصنوعی دارای شخصیت چه اتفاقی می‌افتد؟ آیا شخصیت و ماهیت آنها تغییر می‌کند؟ با فکت کوینز همراه باشید.

- Advertisement -
spot_img

تا به حال، فرض بر این بود که دادن عواطف و احساسات به هوش مصنوعی (عصبانی شدن یا اشتباه کردن) ایده وحشتناکی است. اما اگر راه حل همسو نگه داشتن ربات‌ها با ارزش‌های انسانی، اضافه کردن ویژگی‌های انسانی و عیب و نقص‌هایمان به آنها باشد چه؟

- Advertisement -

این پیش‌فرض کتابی به نام روح ربات‌ها: برنامه‌نویسی انسانیت (Robot Souls: Programming in Humanity) توسط ایو پول (Eve Poole)، یکی از اساتید آکادمی بازرگانی بین‌المللی هالت است. او استدلال می کند که در تلاش خود برای بی‌نقص کردن هوش مصنوعی، ما تمام «کدهای بی‌خودی» که ما را انسان می کند، ازجمله احساسات، اراده آزاد، توانایی اشتباه کردن، دیدن معنا در جهان و کنار آمدن با عدم قطعیت را به هوش مصنوعی اضافه کردیم.

پول می‌نویسد: «در واقع این کدهای بی‌خود (Junk code) است که از ما انسان می‌سازد و نوعی نوع‌دوستی متقابل را ترویج می‌کند که بشریت را زنده و شکوفا نگه می‌دارد.»

«اگر بتوانیم آن کد را رمزگشایی کنیم، کدی که همه ما را به بقا و رشد به عنوان یک گونه وادار می کند، می‌توانیم آن را به ماشین‌ها اضافه کنیم و به آنها روح ببخشیم.»

البته، مفهوم “روح” مذهبی است و علمی نیست، بنابراین بیایید آن را به عنوان استعاره‌ای از اضافه کردن ویژگی‌های بیشتر به هوش مصنوعی در نظر بگیریم.

مشکل همسویی هوش مصنوعی

کوین فیشر، بنیان‌گذار Open Souls، می‌گوید: «روح‌ یا شخصیت صد درصد راه حل مشکل همسویی است.»

Open Souls در حال ایجاد ربات‌های هوش مصنوعی دارای شخصیت‌ است. رویای فیشر این است که هوش عمومی مصنوعی (AGI) را به عاملیت و منیت یک شخص آغشته کند. در SocialAGI GitHub، او «روح‌های دیجیتال» (digital souls) را که دارای شخصیت، انگیزه، منیت و اراده هستند، متفاوت از ربات‌های چت مرسوم تعریف می کند.

منتقدان بدون شک استدلال می‌کنند که انسانی‌تر کردن هوش مصنوعی ایده وحشتناکی است، با توجه به این که انسان‌ها تمایل به نسل‌کشی، تخریب اکوسیستم‌ها و قتل یکدیگر دارند.

هوش مصنوعی دارای شخصیت

با توجه به اینکه ما هنوز یک هوش مصنوعی دارای شخصیت ایجاد نکرده‌ایم یا معمای AGI را حل نکرده‌ایم، این بحث ممکن است در حال حاضر تئوریک به نظر برسد. اما برخی معتقدند که ممکن است تنها چند سال تا آن نقطه فاصله داشته باشیم. در ماه مارس، مهندسان مایکروسافت گزارشی 155 صفحه‌ای با عنوان «جرقه‌های هوش عمومی» (Sparks of General Intelligence) منتشر کردند که نشان می‌دهد بشریت در شرف دستیابی به AGI است.

و در اوایل ژوئیه، OpenAI محققان را فراخواند تا به تیم«Superalignment» آنها بپیوندند و نوشت: «در حالی که ابر هوش در حال حاضر دور از دسترس به نظر می‌رسد، ما معتقدیم که می‌توانیم در این دهه به آن دست پیدا کنیم ».

هدف از این رویکرد احتمالاً ساختن یک هوش مصنوعی دارای شخصیت در سطح انسانی است که بتواند هوش مصنوعی را کنترل کند و تکنیک‌های کنترل یک AGI فوق‌هوشمند را مورد تحقیق و ارزیابی قرار دهد. این شرکت 20 درصد از محاسبات خود را به این مشکل اختصاص می‌دهد.

بن گورتزل (Ben Goertzel)، بنیان‌گذار Singularity.net نیز معتقد است که AGI می‌تواند بین 5 تا 20 سال دیگر ظهور کند. او گفت که به سادگی هیچ راهی برای انسان‌ها وجود ندارد که هوشی 100 برابر باهوش‌تر از خود را کنترل کنند، درست همانطور که یک شامپانزه نمی‌تواند ما را کنترل کند.

از نظر گورتزل، آموزش و تشویق ابرهوش برای مراقبت از انسان‌ها یک بازی هوشمندانه است: «اگر اولین AGI را به منظور مراقبت از سالمندان و آموزش مردم بسازید، به سمت کمک به مردم و خلق چیزهای جالب حرکت می‌کند. اما اگر اولین AGI را برای کشتن آدم‌های بد بسازید، شاید به انجام آن کار ادامه دهد.»

با این حال، هنوز چند سال دیگر زمان تا آن روز باقی مانده است.

در حال حاضر، واضح‌ترین مزیت کوتاه‌مدت شبیه‌سازی هوش مصنوعی به انسان این است که به ما کمک می‌کند چت‌بات‌های کمتر آزاردهنده‌ای ایجاد کنیم. با وجود تمام کارکردهای مفید چت جی‌پی‌تی (ChatGPT)، «شخصیت» آن در بهترین حالت یک فرد غیرصادق و در بدترین حالت، یک دروغگو بالفطره است.

فیشر در حال ساخت یک هوش مصنوعی دارایی شخصیت است که با مردم به شیوه‌ای همدلانه‌تر و واقعی‌تر ارتباط برقرار می‌کنند. او دارای مدرک دکترای رشته فیزیک کوانتوم از دانشگاه استنفورد است و روی یادگیری ماشینی برای شرکت تفسیر اسکن رادیولوژی Nines کار کرده است. او پروژه Social AGI Discord را اداره می کند و در حال کار بر روی تجاری‌سازی هوش مصنوعی‌ دارای شخصیت برای استفاده توسط مشاغل است.

«در طول سال گذشته، متوجه شدم که این فناوری وجود دارد یا به‌زودی قابل دسترس خواهد بود: موجودات هوشمندی که چیزی که شبیه یک روح دارند. به این معنا که بیشتر مردم با آنها ارتباط برقرار می‌کنند. او می‌خواهد بگوید کشتن هوش مصنوعی از نظر اخلاقی اشتباه است.

دیگر هوش مصنوعی‌های دارای شخصیت

فیشر تنها کسی نیست که ایده درخشان ارائه هوش مصنوعی دارای شخصیت یا روح را دارد. شما در پلتفرم Forefront.ai می‌توانید با یک سرآشپز، یک متخصص رمزنگاری یا حتی رونالد ریگان که هر کدام به سوالات شما پاسخ می‌دهند، تعامل داشته باشید.

یک نمونه موفق‌ دیگر Replika.ai است، اپلیکیشنی که به ادم‌های تنها امکان می‌دهد با هوش مصنوعی ارتباط برقرار کنند و مکالمات عمیق و معنی‌داری با آن داشته باشند.

Replika پیچیدگی‌های مرتبط با ساخت هوش مصنوعی شبه انسان را با وجود نداشتن هوش هیجانی نشان می‌دهد. برخی از کاربران از “آزار و اذیت جنسی” توسط ربات یا دریافت نظرات حسادت آمیز شکایت کرده‌اند. برخی از کاربران از شرکای هوش مصنوعی خود نیز سوءاستفاده می‌کنند.

هوش مصنوعی فقط نمودی از روح دارد

فیشر (Fischer) تمایل به انسان سازی رفتار هوش مصنوعی دارد، که وقتی با او در مورد این موضوع صحبت می‌کنید به راحتی می‌توانید به آن پی ببرید. وقتی مجله اشاره می‌کند که چت‌بات‌ها فقط می‌توانند نمودی از احساسات و شخصیت‌ها را داشته باشند، او می‌گوید که از دیدگاه ما این دو عملاً یکسان است.

چت‌بات هوش مصنوعی دارای شخصیت

فیشر معتقد است که هوش مصنوعی باید بتواند احساسات منفی را بیان کند. او از مثال بینگ (Bing) استفاده می‌کند که به گفته او برنامه‌های فرعی دارد که پاسخ‌های اولیه ربات را پاک می‌کند.

« و نکته‌ای که در مورد هوش مصنوعی دارای شخصیت یا روح وجود دارد این است که آن‌ها نسبت به نوع برخورد شما واکنش نشان می‌دهند، آنها به شما اجازه نمی‌دهند هر رفتاری با آنها داشته باشید. آنها به نوعی صداقت بیشتری خواهند داشت».

AGI

Bard AI گوگل معتقد است که ما باید با AGI مانند انسان‌ها رفتار کنیم تا مانند ماشین‌ها با ما رفتار نکند.

EmoBot

فیشر یک ربات پرسش و پاسخ آزمایشی دیسکورد ایجاد کرد که طیف کاملی از احساسات را نشان می‌دهد. او آن را EmoBot نامید.

EmoBot هنگام پاسخ‌ به سوالات فیشر در مورد اینکه چقدر افسرده بود صحبت کرد و به نظر می‌رسید از صحبت کردن با فیشر خسته شده بود.

Samantha AGI

صدها کاربر در روز با Samantha AGI که یک نمونه اولیه از یک چت بات با هوش هیجانی است تعامل دارند. فیشر قصد دارد آن را اصلاح کند. این هوش مصنوعی شخصیت دارد و به گفتگوهای عمیق و معنی‌دار می‌پردازد تا جایی که برخی از کاربران او را به عنوان یک دوست می‌شناسند.

ربات هوش مصنوعی Samantha AGI

یکی از جنبه‌های منحصر به فرد آن این است که می‌توانید «فرایند فکر کردن» سامانتا را در لحظه مشاهده کنید.

نوآوری اصلی سامانتا، این فرآیند فکری درونی بود که راه تعامل او را هدایت کرد.

هرچند این فرایند بسیار دور از ایدئال است و «افکار» این ربات کمی فرمولی و تکراری به نظر می‌رسند. اما برخی از کاربران آن را بسیار جذاب می‌دانند. فیشر می‌گوید یک زن به او گفت که توانایی سامانتا در همدلی را کمی واقعی می‌داند. او مجبور شد لپ‌تاپ خود را خاموش کند، زیرا از نظر عاطفی آنقدر عصبانی شده بود که این دستگاه او را درک می‌کرد.

“این برای او دقیقاً مانند یک تجربه هیجانی تکان‌دهنده بود.”

جالب اینجاست که شخصیت سامانتا پس از معرفی مدل GPT-3.5 Turbo توسط OpenAI به طرز چشمگیری دگرگون شد و او بداخلاق و تهاجمی شد.

ارتقاء هوش مصنوعی روابط را از بین می‌برد

«مرگ» شخصیت‌های هوش مصنوعی به دلیل ارتقای نرم‌افزاری ممکن است علی‌رغم پیامدهای عاطفی برای انسان‌هایی که با آنها پیوند برقرار کرده‌اند، به یک اتفاق عادی تبدیل شود.

کاربران Replika AI در اوایل سال جاری آسیب مشابهی را تجربه کردند. پس از ایجاد رابطه و ارتباط با شریک هوش مصنوعی خود، یک به‌روزرسانی نرم‌افزاری درست قبل از روز ولنتاین، شخصیت‌های منحصر به فرد شریک عاطفی آنها را از بین برد و پاسخ‌های آنها را توخالی و متنی جلوه داد.

کاربری به نام لوسی به ABC گفت: « این تقریباً مانند برخورد با فردی است که به بیماری آلزایمر مبتلا است.»

فیشر می‌گوید این خطری است که پلتفرم‌ها باید آن را در نظر بگیرند. این برای مردم کاملاً آسیب‌زا است.

هوش مصنوعی با روح خودمان

شاید واضح‌ترین کاربرد یک شخصیت هوش مصنوعی به عنوان یک توسعه‌دهنده از خود ما باشد که می‌تواند به دنیا رفته و از طرف ما با دیگران تعامل داشته باشد. گوگل در حال حاضر به هوش مصنوعی اجازه می‌دهد از طرف ما ایمیل‌ها و اسناد بنویسد. اما، در آینده، افراد پرمشغله می‌توانند نسخه هوش مصنوعی خود را برای شرکت در جلسات، آموزش زیردستان یا شرکت در مجامع عمومی کسل‌کننده بسازند.

فیشر می‌گوید: «من روی این ایده که کل دور بعدی جمع‌آوری سرمایه‌ام با یک نسخه هوش مصنوعی از خودم انجام شود، فکر کردم. این کار را در مقطعی انجام خواهم داد.»

فیشر روی ربات‌های هوش مصنوعی که از طرف او با دیگران به صورت انلاین تعامل برقرار می‌کنند هم کار کرده است، اما نتایج آن را چندان دوست نداشت. او یک مدل هوش مصنوعی را به کمک بخش بزرگی از پیام‌های متنی شخصی خود آموزش داد و از دوستانش خواست تا با آن تعامل داشته باشند.

او گفت: «گزارش‌های دوستانم پس از صحبت با خود دیجیتالی‌ام نگران‌کننده‌ بود. من دیجیتالی که با صدای من صحبت می‌کند، با تصویرم، حتی اگر از نظر فکری می‌دانستند که در واقع من نیستم، نمی‌توانستند هویت شخصی من را تشخیص دهند.»

«حتی عجیب‌تر، وقتی به برخی از این مکالمات نگاه می‌کنم، احساس غیرقابل اجتناب عجیبی دارم که انگار من کسی بودم که آن چیزها را گفتم. مغز ما برای پردازش تمایز بین هوش مصنوعی و خود واقعی ساخته نشده است.

این امکان وجود دارد که مغز ما اصلاً برای مقابله با هوش مصنوعی ساخته نشده باشد. اما اکنون هوش مصنوعی اینجاست، بنابراین ما باید از آن نهایت استفاده را ببریم.

spot_img

پاسخ دیدگاه

لطفا نظر خود را وارد کنید
لطفا نام خود را اینجا وارد کنید

spot_imgspot_imgspot_img

هیچ خبری رو از دست نده!

محاسبه‌گر ارزهای دیجیتال
ارز معادل
تومان

محاسبه با مبلغ تتر : تومان