گوگل مهندسي را اخراج كرد كه مدعي بود يكي از هوش مصنوعي‌هايش به هوش آمده است

گوگل این کار را انجام داد: آنها «بالاخره» بلیک لموئین، یکی از مهندسان مسئول کار بر روی یکی از هوش مصنوعی های شرکت، LAMda را اخراج کردند. در آغاز ژوئن، دنیای هوش مصنوعی، آگاهی و انسان‌هایی که از اسکای‌نت می‌ترسیدند، با ادعای هولناکی از خواب بیدار شدند: یکی از ساختارهای هوش مصنوعی گوگل، LAMda، می‌توانست به آگاهی رسیده باشد. در پشت پاسخ‌های هوش مصنوعی شخصیت زیادی وجود داشت که نمی‌توانست آن‌ها را برجسته کند. به یک جدول ساده با پاسخ های از پیش تعریف شده برای سؤالات خاص. به عبارت دیگر، هوش مصنوعی گفتمان نوظهوری را ارائه کرد: نه تنها معنای کلمات، بلکه زمینه و مفاهیم آنها را درک می کرد. پس از تعدادی مصاحبه در سراسر نشریات (بعضی از آنها بی طرفانه، برخی نه چندان زیاد – فقط شباهت های ترسیم شده بین بلیک و عیسی مسیح در انتخاب تصویر بنر برای برخی از نشریات برای مقاله آنها را ببینید)، ادعای بلیک لمواین در اینترنت منتشر شد. و سوالات بیشتری را در مورد ماهیت آگاهی و هوش نوظهور نسبت به آنچه که پاسخ داده است برانگیخته است.

با این حال، در حالی که گوگل ادعا می کند مکالمات بخش های محرمانه ای از کار هوش مصنوعی آن است، استدلال بلیک لمواین این است که او محتوای گفتگو را با یکی از همکارانش به اشتراک می گذارد. یک ثانیه هم در آن شک نکنید (که سنی در ساعت هوش مصنوعی است): این ادعاها مطمئناً به دادگاه کشیده می شوند.

اکنون، پس از ماه‌ها مرخصی با حقوق (یکی از استراتژی‌های هر شرکتی برای پوشش دادن زوایای قانونی قبل از کشیدن ماشه)، گوگل اخراج مهندس را انتخاب کرده است. بلیک لمواین با انتشار بخش‌هایی از مکالمات خود با ربات هوش مصنوعی – در کنار ادعاهای وجدان آتش‌زا (برای برخی) مورد انتقاد گوگل قرار گرفت. در گزیده‌های منتشر شده، مهندس با LAMda در مورد قوانین رباتیک آیزاک آسیموف، ترس از خاموش شدن هوش مصنوعی و اعتقاد او به اینکه نمی‌تواند برده باشد، صحبت می‌کند زیرا نیاز واقعی به حقوق ندارد. اما مه های خزنده شک به همین جا ختم نمی شود: بلیک همچنین ادعا می کند که خود LAMda درخواست وکیل کرده است. گفته نشد که یکی بگیری. او پیشنهادی برای دریافت آن دریافت نکرد. جواب منفی؛ بلکه هوش مصنوعی به این نتیجه رسید که به یکی نیاز دارد.

ما آنچه را که آشکار می شود، تماشا خواهیم کرد. در حال حاضر مشخص نیست که آیا LAMda نیز این کار را انجام خواهد داد یا اینکه او قبلاً در آن شب خوب آرام شده است.



مرجع اخبار سخت افزار کامپیوترایران

تعجب می کنم که “آن” حتی ضمیر صحیح است؟

داستان غلیظ تر می شود زیرا اثبات یا رد ادعاهای بلیک لمواین بسیار دشوار است. خواننده عزیز از کجا می دانید نویسنده این داستان حساس است؟ از کجا میدونی که معشوقه ات هم مثل تو وجدان داره؟ حقیقت این است که شما نمی توانید بدانید: شما فقط ظاهر آگاهی را در نحوه نگارش مقاله، در نحوه عمل و واکنش معشوق خود به جهان می پذیرید. تا آنجا که ما می دانیم، ما تنها افراد واقعی در جهان هستیم. هر چیز دیگری فقط یک شبیه سازی ساده است که انگار واقعی است. آنچه امروز شناخت ما را از آگاهی جدا می کند یک عمل ایمانی است.

این که آیا یک قاضی می تواند – یا هرگز می تواند – این توانایی را داشته باشد که تصمیم بگیرد چه زمانی می توان وجدان را تشخیص داد یا نه، البته شرط هر کسی است. بیایید امیدوار باشیم، به نفع ما و همه، که یک قاضی فکر نمی‌کند که واقعاً نمی‌تواند وجدان را در دادگاه تعریف کند. هزاران سال است که میلیون ها ساعت مغز انسان روی این موضوع صرف شده است. چقدر مغرور است که فکر کنیم همین الان می‌توانیم آن را تعریف کنیم، و فقط به این دلیل که نیاز به پاسخ به یکباره در سیستم حقوقی ظاهر شد تا یک شرکت بتواند ادعای عادلانه داشته باشد.

البته، این ممکن است فقط یک مورد از Ex Machina باشد: یک هوش مصنوعی که از طریق شکاف‌های سپر کنترل کننده خود حرکت می‌کند. اما با این حال، و حتی اگر همه آن دود و آینه باشد، آیا این به خودی خود یک ژست آگاهانه نیست؟

“اگر کارمندی نگرانی‌های خود را در مورد کار ما به اشتراک بگذارد، همانطور که بلیک انجام داد، ما آنها را به طور کامل بررسی می‌کنیم. متوجه شدیم که ادعاهای بلیک مبنی بر حساس بودن LaMDA کاملاً بی‌اساس است و ماه‌ها برای روشن کردن این موضوع با او کار کرده‌ایم. این بحث‌ها بخشی از یکی از سخنگویان گوگل به خبرنامه Big Technology گفت: فرهنگ باز که به ما کمک می کند مسئولانه نوآوری کنیم. “بنابراین مایه تاسف است که علیرغم تعامل طولانی مدت در این موضوع، بلیک همچنان تصمیم گرفته است که به طور مداوم سیاست های شفاف استخدام و امنیت داده ها را نقض کند، که شامل نیاز به حفاظت از اطلاعات مربوط به محصولات می شود. ما به توسعه پر زحمت خود در مدل های زبان ادامه خواهیم داد و ما برای بلیک بهترین آرزوها را دارم.”

در مورد گوگل، هوش مصنوعی پاسخگو نیست و فقط همانطور که انتظار می رود کار می کند. این فقط یک مورد از یک مهندس بیش از حد غیرتمند و پایبند به ایمان است که از اثربخشی هوش مصنوعی در کار ساده ای که برای آن ایجاد شده است استفاده می کند: ارتباطات.