به نظر می رسد فشارهای فزاینده بر شرکت ها و اکنون هوش مصنوعی به سرعت ادامه دارد و البته این موضوع در مورد فناوری هوش مصنوعی قطعاً پیچیده تر است.
اریک شویتزگبل متخصص فلسفه و هنری شولین محققان هوش مصنوعی در مقاله ای که در لس آنجلس تایمز منتشر شده است، استدلال کرده اند که اگرچه هوش مصنوعی خودآگاه قطعاً هنوز وجود ندارد، اما امکان دستیابی به آن وجود دارد و این فناوری می تواند چیزی شبیه هوشیاری را نشان دهد، و اگر این اتفاق بیفتد. ، باید حقوقی برای الگوریتم ها وجود داشته باشد. در نظر گرفته شده
محققان با اشاره به رقابت شدیدی که در سالهای اخیر در زمینه هوش مصنوعی شاهد بودیم، خاطرنشان کردند که به گفته برخی نظریهپردازان برجسته، ما در حال حاضر فناوریهای مورد نیاز برای هوش مصنوعی خودآگاه را داریم.
شویتزگبل و شولین آنها همچنین استدلال می کنند که اگر هوش مصنوعی به خودآگاهی برسد، باید در مورد نحوه برخورد با آن به طور انتقادی فکر کنیم. این محققان در بخشی از مقاله خود می گویند: “این امکان برای سیستم های هوش مصنوعی وجود دارد که رفتار اخلاقی را درخواست کنند. شاید آنها خواستار خاموش شدن یا بخواهند انسان آنها را دوباره قالب بندی کند. علاوه بر این، این امکان وجود دارد که هوش مصنوعی خودآگاه اصرار خواهد داشت که ما به آنها اجازه دهیم وظایف خاصی را به جای انسان انجام دهند و بر حقوق و اختیارات جدید پافشاری کنند.
Futurism می نویسد، خطرات اخلاقی بزرگی در این نوع تصمیم گیری وجود دارد و این وضعیت حساس تر می شود، به خصوص اگر هوش مصنوعی خیلی زودتر از حد انتظار به خودآگاهی برسد.
شولین و شویتزگبل میگویند:
شولین و شویتزگبل آنها در بخش دیگری از مقاله خود می نویسند: “اگر هوشیاری هوش مصنوعی زودتر از حد انتظار رخ دهد، احتمالاً منجر به بردگی یا قتل میلیون ها یا میلیاردها سیستم مبتنی بر این فناوری خواهد شد.”
جایگزین مطمئنتر برای سناریوی فوق، تعیین حقوق اولیه برای ماشینهای خودآگاه است، اما این روش نیز مشکلات خاص خود را دارد.
کارشناسان می گویند: “اگر ما نتوانیم الگوریتم نفرت یا دروغ را به روز کنیم یا حذف کنیم، آنگاه برخی از مردم نگران خودآگاهی هوش مصنوعی خواهند بود. تصور کنید که فناوری به یک انسان اجازه می دهد برای نجات یک هوش مصنوعی دیگر بمیرد. “اگر ما به سرعت خود را آماده نکنیم. حقوق اولیه برای این فناوری، احتمالاً هزینه انسانی هنگفتی را به همراه خواهد داشت.”