اخبار

روزانه مردم: ایجاد عصر هوشمند از تعامل خوش خیم

الگوریتم های هوش مصنوعی خطرات امنیتی بالقوه، تعصبات شناختی، درگیری اخلاق حقوقی اغلب حاکی از این واقعیت از نقص های اجتماعی تنها کسی که در دستگاه و با استفاده از دستگاه در دو تلاش، ما می توانیم تعامل مثبت و هوش مصنوعی آینده بشر ایجاد کنید.

صدای جداجدا سفارش داده شده، قلم مو پرداخت صورت، وسایل نقلیه بدون سرنشین را به خانه ...... 60 سال پیش، هنگامی که یک گروه از دانشمندان جوان برای اولین بار مفهوم هوش مصنوعی ارائه شده، شاید آن را انتظار تغییرات بزرگ آن به ارمغان می آورد و در حال حاضر، به لطف محاسبات ظرفیت آسانسور، درایو و یادگیری دستیابی به موفقیت بزرگ داده های عمیق، هوش مصنوعی است تسریع "تکامل"، به طور فزاینده در حال تغییر تولید و زندگی ما است.

فناوری یک شمشیر دو لبه است. باید در پیروزی هوش مصنوعی در همان زمان دیده می شود، امنیت، اخلاق حقوقی و همچنین چالش های جدید. به عنوان مثال، برخی از کارشناسان نگران هستند که هوش مصنوعی می تواند از مرزهای دنیای مجازی و دنیای فیزیکی، و حتی بازسازی تیرگی محیط زندگی و فرم شناختی انسان، و در نتیجه به دست آمده از یک سری از مشکلات اخلاقی موجب ناراحتی. فیزیکدان مشهور، قبل از Huojin شنگ معتقد است که تاثیر کوتاه مدت از هوش مصنوعی است توسط افرادی که آن را کنترل تعیین می کند، و تاثیر طولانی مدت بر مصنوعی بستگی دارد هوشمند به طور کامل توسط مرد کنترل می شود.

از یک فرآیند توسعه فنی و منطق، این نگرانی ها در اوایل ممکن است که آمده است. خوشبختانه، ما نه تنها در بحث باقی بماند، خطرات بالقوه برای هوش مصنوعی، دانشمندان و مهندسان برای اقدامات پیشگیرانه، از استانداردهای طراحی محصول، مشخصات و محدودیت های دیگر تلاش برای قرار دادن به جلو یک سری از کنترل هوشمند ماشین سیستم امکان سنجی چهره از الگوریتم های هوشمند می تواند عدم شفافیت ناشی از تعصب ماشین را درک نمی کنند، مردم استفاده می شود برای تقویت ارزیابی داده از هوش مصنوعی، الگوریتم و مدل، به استثنای عوامل بالقوه که می تواند به تعصب منجر ؛ برای آینده در محیط قوی هوش مصنوعی، دستگاه دارای یک شبه چگونگی هماهنگی شخصیت به همراه با مشکلات مردم، دانشمندان تلاش کرده اند تا از طریق الگوریتم به ماشین های هوشمند تعبیه شده در ارزش ها و هنجارهای انسانی کشف، به طوری که آنها را به شفقت و انسانیت همان، احساس مسئولیت، شرم و غیره. ما امیدواریم که در همان زمان برای تنظیم برنامه های هوش مصنوعی، به طوری که الگوریتم های هوش مصنوعی از 'اعمال خوب را دنبال، قرعه کشی "خوب" سمت اخلاق انسان، بنابراین به عنوان برای کنترل خطر از ماشین است.

البته، برای ساخت یک سیستم اخلاق حقوقی ماشین خوب آسان نیست. زبان غنی برای بیان واقعیت، درخواست تجدید نظر عاطفی ظریف را می توان با ماشین آلات درک، قبل؟ اندازه گیری شده توسط شاخص های کمی مفهوم اخلاقی خوب و بد، و غیره امکان پذیر است؟ همچنین، که الگوریتم تصمیم گیری، مجموعه ای از استاندارد؟ این مشکلات ما در حال تلاش برای تنظیم توسعه نیاز هوش مصنوعی به چهره هستند، اما دشوار است به اخلاق دستگاه تعبیه شده، به این معنا نیست که ما می توانیم کاری انجام ندادن. قضاوت و خروجی رفتار یادگیری ماشین، اغلب بر روی آن بستگی دارد اطلاعات دریافت کرد. از این نقطه نظر، هوش مصنوعی به خودی خود درست یا غلط نیست، حالت ایده آل، مطالعه عمق فعلی بر اساس الگوریتم های هوش مصنوعی باید بی طرف، هدف و کارآمد باشد، خطرات ایمنی بالقوه آن، تعصبات شناختی، درگیری اخلاق حقوقی اغلب حاکی از این واقعیت از نقص های اجتماعی است، اما در زمینه تکنولوژی دید در بزرگ. بنابراین، به ماشین های هوشمند تبدیل کامل تر، علاوه بر بررسی و یا الگوریتم هدایت از طریق ابزارهای فنی، اما شاید حتی مهم تر این است که با روبرو شدن، درک و بهبود محیط اجتماعی واقعی، تنها زمانی که دستگاه و فردی که با استفاده از دستگاه تمرکز می کنند بر یکدیگر متمرکز شوند، می توانیم هوش مصنوعی ایجاد کنیم تعامل مثبت با انسان در آینده است.

عالمان اخلاق می گویند، هوش مصنوعی، استانداردهای اخلاقی خواهد بود یک آینه، آن را نشان دهنده ارتفاع اخلاقی تمدن بشری است. جامعه انسانی نمی تواند کامل باشد، آینده عصر ماشین هوش متفاوت است. ما می خواهیم همچنان به تلاش های مداوم به ایجاد بهتر عصر اطلاعات.

2016 GoodChinaBrand | ICP: 12011751 | China Exports