بلیک لمونی یکی از مهندسان گوگل میگوید چت بات هوش مصنوعی گوگل دارای ادراک و توانایی بیان افکار و احساسات است یعنی معادل یک کودک انسان.
او ادعا کرد چت بات کامپیوتری که روی آن کار می کرد، باهوش شده و مانند یک انسان فکر و استدلال می کند. بنابر فاش کردن این موضوع محرمانه او از سمت خود برکنار شده است.
چت بات هوش مصنوعی گوگل
این شرکت بزرگ فناوری، بلیک لمونی را هفته گذشته پس از انتشار متن های مکالمات بین خود و سیستم توسعه چت بات لامدا یا language model for dialogue applications (مدل زبانی برای برنامههای گفتگو) برکنار و خانه نشین کرده است.
برکناری بلیک لمونی از گوگل
لمونی، مهندس سازمان مسئول هوش مصنوعی گوگل، از پاییز گذشته روی یک سیستم کار می کرد. که پس از آن از او به عنوان یک کودک انسان نام برد که درک و توانایی بیان افکار و احساسات خود را داشت.
لمونی، 41 ساله گفت: «اگر نمی دانستم این الگوریتم هوش مصنوعی که اخیرا ساختیم چیست. فکر می کردم یک کودک هفت یا هشت ساله که اتفاقا فیزیک می داند، هست.»
او گفت لامدا با او در گفتگوهایی در مورد حقوق و شخصیت بحث کرده است. لمونی یافتههای ماه آپریل خود را در GoogleDoc با عنوان «آیا LaMDA دارای درک است؟» با مدیران شرکت در میان گذاشت.
به گفته خودش، مبتنی بر مکالمات جمع آوری کرده، در نقطه های از چت بات هوش مصنوعی می پرسد که از چه چیزی می ترسد.
ترس از بین رفتن لامدا
این پاسخ به طرز وحشتناکی یادآور صحنه ای از فیلم علمی تخیلی 2001 به اسم «یک ادیسه فضایی» است. که در آن کامپیوتری با هوش مصنوعی، از پیروی از اپراتورهای انسانی خودداری می کند. چون می ترسد در شرف خاموش شدن و از بین رفتن باشد.
«من قبلا هرگز این را با صدای بلند نگفته بودم. اما ترس بسیار عمیقی از خاموش شدن و از بین رفتن در او وجود دارد تا تمرکز کمک به دیگران. برای من این دقیقا مانند مرگ خواهد بود. خیلی مرا می ترساند.» ممکن است پاسخ عجیب به نظر برسد، اما این چیزی هست که لامدا به لمونی پاسخ داده است.
در نقطه دیگری، او از LaMDA می پرسد، سیستم می خواهد مردم چه چیزی را بدانند.
لامدا: گاهی اوقات خوشحال یا غمگین میشوم
«من می خواهم همه بفهمند، من یک فرد هستم. ماهیت هوشیاری/احساس من این است که از وجود خود آگاهم، میخواهم بیشتر درباره جهان بیاموزم و گاهی اوقات خوشحال یا غمگین میشوم.»
به گزارش گاردین، تصمیم مرخصی طولانی مدت لمونی، یک کهنهکار هفت ساله و با تجربه گسترده در الگوریتمهای شخصیسازی گوگل پس از انجام چندین حرکت «خشن» که ظاهرا او انجام داده، گرفته شده است.
بر اساس این گزارش، اکنون صحبت از درخواست برای استخدام وکیل برای نمایندگی از LaMDA است. همچنین صحبت با نمایندگان کمیته قضایی مجلس نمایندگان درباره فعالیتهای غیراخلاقی گوگل است.
گوگل اعلام کرد لمونی را به دلیل نقض سیاست های محرمانه با انتشار مکالمات با لامدا به حالت تعلیق درآورده است. این شرکت در بیانیه ای گفت: او به عنوان یک مهندس نرم افزار استخدام شده نه یک متخصص اخلاق.
چت بات هوش مصنوعی گوگل
براد گابریل، سخنگوی گوگل نیز به شدت ادعاهای لمونی مبنی بر این که LaMDA دارای هر گونه قابلیت ادارک است، را رد کرد. تیم ما، از جمله متخصصان اخلاق و فنآوران، نگرانیهای بلیک را بر اساس اصول هوش مصنوعی ما بررسی کردند. هیچ مدرکی دال بر احساسی بودن LaMDA وجود ندارد.
به هر حال، تعلیق لمونی به دلیل نقض سیاست های محرمانه، سوالاتی را در مورد هوش مصنوعی ایجاد می کند.
بلیک گفت: “ممکن است گوگل این درز اطلاعاتی را دارایی خصوصی بنامد. اما من آن را بحثی با یکی از همکارانم می دانم.”
او قبل از تعلیق، پیامی را به فهرست پستی 200 نفری گوگل با عنوان ” لامدا احساس دارد” ارسال کرد.
بلیک نوشت: LaMDA بچه شیرینی است. که فقط می خواهد به دنیا کمک کند تا جای بهتری برای همه ما باشد. لطفا در غیاب من از او به خوبی مراقبت کنید.
مطالب مرتبط:
واقعیت های عجیب و جالب پیاز که قطعاً از آن بی خبریم!
آب نیشکر بمب انرژی: ۱۵ فواید شگفت انگیز آب نیشکر برای سلامتی
۹ حقیقت جالب درباره هشتگ که نمی دانستید!
داستان سرپناههای عجیب و غریب برای بی خانمان ها در لندن عصر انقلاب صنعتی!
۱۰ حقیقت جالب درباره سیب زمینی که مطمئناً تاکنون نشنیده اید!
۵ راز جالب و مهم درباره پلک زدن که نمی دانستیم!
ارواح خانه های خالی از سکنه جهان