چرا نباید به هوش مصنوعی اعتماد کنیم؟

چرا نباید به هوش مصنوعی اعتماد کنیم؟ شاه بلاگ: شاه بلاگ: اگر از دستیار صوتی مبتنی بر هوش مصنوعی الکسای آمازون بپرسید که آیا آمازون یک شرکت انحصاری است، پاسخ می دهد که نمی داند. این هوش مصنوعی که به آسانی سایر غول های فناوری را سرزنش می کند، در مورد اعمال نادرست شرکت والد خود سکوت اختیار می کند. بدین سبب آیا هوش مصنوعی تحت تسلط شرکت سازنده اش نظرات سوگیرانه می دهد؟


به گزارش شاه بلاگ به نقل از ایسنا و به نقل از اس اف، هنگامی که الکسا به این شکل پاسخ می دهد، واضح است که منافع توسعه دهنده ی خویش را به منافع شما ترجیح می دهد. با این وجود، معمولاً معلوم نیست که یک سیستم هوش مصنوعی به چه کسی خدمت می کند.
برای پیشگیری از مورد سو استفاده قرار گرفتن توسط این سیستم ها، مردم باید یاد بگیرند که با شک و تردید به هوش مصنوعی نزدیک شوند. این بدان معناست که تعمدا ورودی هایی را که به آن می دهید بسازید و به صورت نقادانه در مورد خروجی آن فکر کنید.
نسل های جدیدتر مدلهای هوش مصنوعی، با پاسخ های پیچیده تر و کوتاه ترشان، تشخیص این که چه کسی هنگام صحبت کردن نفع می برد را دشوارتر می کنند.
شرکتهای اینترنتی آن چه شما می بینید برای تأمین منافع خودشان دستکاری می کنند و این چیز جدیدی نیست. نتایج جستجوی گوگل(Google) و صفحه ی فیسبوک شما با ورودی هایی پر شده که برای نمایش آنها پول دریافت شده است. فیسبوک، تیک تاک(TikTok) و سایر شرکتهای فناوری آن چه شما می بینید را دستکاری می کنند تا زمانی را که در این پلت فرم می گذرانید به حداکثر برسانند که خود به معنای بازدید بیشتر از آگهی ها توسط شماست.
آن چه سیستم های هوش مصنوعی را از سایر سرویسهای اینترنتی متمایز می کند میزان تعاملی بودن آنها است و این که چگونه این تعاملات به صورت فزاینده ای شبیه به روابط می شوند. نیازی نیست زیاد از فناوری های امروزی فاصله بگیرید که بتوانید آینده ای را تصور کنید که در آن هوش مصنوعی سفرهایی را برای شما برنامه ریزی می کند، از سوی شما مذاکره می کند یا بعنوان درمانگر و مربی در زندگی شما عمل می کند.
آنها احیانا ۲۴ ساعته با شما خواهند بود، شما را از نزدیک می شناسند و می توانند نیازهای شما را پیشبینی کنند. آنها در راه تبدیل شدن به دستیاران دیجیتال شخصی هستند.
بعنوان یک متخصص امنیت و دانشمند داده ما معتقدیم افرادی که به این هوش مصنوعی ها تکیه می کنند باید به صورت ضمنی به آنها اعتماد کنند تا زندگی روزمره را بگذرانند. این بدان معناست که آنها باید مطمئن شوند که هوش مصنوعی مخفیانه برای شخص دیگری کار نمی کند.
در سراسر اینترنت، دستگاه ها و سرویس هایی که به نظر می آید برای شما کار می کنند، درحال مخفیانه کار کردن ضد شما هستند.
تلویزیون های هوشمند از شما جاسوسی می کنند. برنامه های تلفن همراه داده های شما را جمع آوری کرده و می فروشند. خیلی از برنامه ها و وبسایت ها شما را از راه الگوهای تاریک فریب می دهند. این یک سرمایه داری نظارتی است و هوش مصنوعی درحال تبدیل شدن به بخشی از آن است.
در تاریکی
احیانا شرایط با ظهور هوش مصنوعی خیلی بدتر می شود. به جهت اینکه دستیار دیجیتال هوش مصنوعی واقعا مفید باشد، باید شما را حتی بهتر از تلفن همراه شما و موتور جستجوگر گوگل شما بشناسد. حتی شاید از دوستان نزدیک، شرکای صمیمی و درمانگر شما هم شما را بهتر بشناسد.
دلیلی برای اعتماد به ابزارهای مولد هوش مصنوعی امروزی وجود ندارد.
حقایق ساختگی که جی پی تی و دیگر مدلهای زبانی بزرگ تولید می کنند را فراموش کنید. انتظار می رود که با بهبود فناوری در چند سال آینده، آنها تا حد زیادی پاکسازی شوند.
اما نمی دانیم که انواع مختلف هوش مصنوعی چگونه پیکربندی شده اند. چگونه آموزش دیده اند، چه اطلاعاتی به آنها داده شده است و چه دستورالعمل هایی به آنها داده شده تا پیروی کنند. بعنوان مثال، محققان قوانین مخفی حاکم بر رفتار چت بات مایکروسافت بینگ را کشف کردند. آنها تا حد زیادی بی خطر هستند اما می توانند در هر زمانی تغییر کنند.
پول درآوردن
خیلی از این هوش مصنوعی ها با هزینه های هنگفت توسط بعضی از بزرگترین انحصارهای فناوری ایجاد و آموزش داده می شوند. آنها جهت استفاده مجانی یا با هزینه خیلی کم به مردم عرضه می شوند. این شرکت ها باید به نحوی از آنها درآمدزایی کنند و مانند سایر بخش های اینترنت، احیانا به شکلی شامل نظارت و دستکاری می شود.
تصور کنید از چت بات خود بخواهید برای تعطیلات بعدی شما برنامه ریزی کند. آیا شرکت هواپیمایی یا هتل زنجیره ای یا رستوران خاصی را انتخاب می کند که برای شما بهترین است یا جایی که شرکت سازنده ی هوش مصنوعی شما با آن شراکت پنهانی دارد؟
این مشابه نتایج پولی در جستجوی گوگل و تبلیغات در فیسبوک است که احیانا در طول زمان مخفیانه تر می شود.
اگر از چت بات خود اطلاعات سیاسی می خواهید، آیا نتایج تحت تأثیر سیاست های شرکت سازنده آن خواهد بود؟ یا معطوف به نامزد انتخاباتی که بیشترین پول را پرداخت کرده می شود؟ یا حتی دیدگاه جمعیت شناختی افرادی که از داده های آنها در آموزش مدل هوش مصنوعی استفاده شده است بر نتایج تأثیر دارد؟ آیا دستیار هوش مصنوعی شما مخفیانه یک جاسوس دوجانبه است؟ هم اکنون هیچ راهی برای دانستن آن وجود ندارد.
قابل اعتماد بودن برپایه قانون
ما معتقدیم مردم باید از این تکنولوژی انتظار بیشتری داشته باشند و شرکتهای فناوری و هوش مصنوعی می توانند قابل اعتمادتر شوند. قانون پیشنهادی هوش مصنوعی اتحادیه اروپا اقدامات مهمی را انجام می دهد که نیازمند شفافیت در مورد داده های مورد استفاده برای آموزش مدلهای هوش مصنوعی، کاهش تعصب احتمالی، افشای خطرات قابل پیشبینی و گزارش دهی آزمایش های استاندارد صنعتی است.
بیشتر هوش مصنوعی های موجود از این دستورات نوظهور اروپایی پیروی نمی کنند.
هوش مصنوعی های آینده باید قابل اعتماد باشند. تا وقتی که دولت حمایت های قوی از مصرف کننده برای محصولات هوش مصنوعی عرضه نکند، مردم در برآورد کردن خطرات و سوگیری های بالقوه هوش مصنوعی و کاهش بدترین اثرات آنها تنها هستند.
بنابراین، هنگامی که یک سفارش برای سفر یا اطلاعات سیاسی از یک ابزار هوش مصنوعی دریافت می کنید، با نگاه انتقادی آنرا ببینید.



1402/05/07
10:06:06
5.0 / 5
303
تگهای خبر: امنیت , اینترنت , تكنولوژی , توسعه
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۳ بعلاوه ۴
شاهبلاگ

شاه بلاگ

وبلاگ عمومی

shahblog.ir - حقوق سایت شاه بلاگ محفوظ است