شرکت دانش بنیان مبتکران اشیاء هوشمند
موقعیت هدر
(Header)

مکان ما

عنوان صفحات
(PageTitle)
وسط بالا
(Center-Top)
وسط وسط
(Center-Middle)

چگونه اعتماد کورکورانه به هوش مصنوعی می‌تواند فاجعه بیافریند؟

این فناوری شگفت‌انگیز، Democratization of Information (همگانی‌سازی اطلاعات) را به سطح جدیدی رسانده است. اما در پس این توانایی خیره‌کننده، یک حقیقت خطرناک نهفته است: این مدل‌ها "می‌دانند" که نمی‌دانند. آنها ماشین‌های پیش‌بینی آماری هستند، نه موجودات خردمند. آنها متن را بر اساس الگوهای یادگرفته‌شده از داده‌های عظیم تولید می‌کنند، نه بر اساس درک و استدلال انسانی. این مقاله به بررسی موارد concrete و خطرناکی می‌پردازد که در آن اطلاعات ناقص یا گمراه‌کننده هوش مصنوعی می‌تواند منجر به آسیب‌های جبران‌ناپذیر مالی، جسمی و حقوقی برای انسان‌ها شود.

 

فهرست موارد خطر و گمراه‌کنندگی هوش مصنوعی

 

۱. توهم یا Hallucination (ساخت‌سازی اطلاعات)

 

این قوی‌ترین و خطرناک‌ترین ضعف مدل‌های زبانی است. مدل ممکن است حقایق، تاریخ‌ها، آمار، نقل قول‌ها یا حتی کل منابع و پرونده‌های قضایی را به طور کامل بسازد و آن را با اطمینان کامل ارائه دهد. این کار نه از روی تقلب، که به دلیل ذات آماری مدل است. مدل الگویی را می‌بیند که "به نظر می‌رسد" درست باشد و آن را تولید می‌کند.
مثال: دوست وکیل من به موردی از یک لایحه نوشته شده توسط هوش مصنوعی برخورد کرده بود که در آن به قوانین و آرا وحدت وییه ای اشاره شده بود که اصلا وجود خارجی نداشتند.

هوش مصنوعی برای تهیه لایحه، به یک رأی دادگاه عالی یا یک مقاله حقوقی معتبر استناد می‌کند که هرگز وجود نداشته است. شماره پرونده، تاریخ و حتی نام قاضی می‌تواند کاملاً ساختگی باشد. یک وکیل بدون بررسی دقیق، با اعتماد به این اطلاعات، ممکن است کل پرونده خود را از دست بدهد و اعتبار حرفه‌ای او خدشه‌دار شود.

 

۲. کهنگی اطلاعات (Knowledge Cutoff)

 

دانش مدل‌های ربانی بر اساس داده‌هایی است که تا یک تاریخ خاص بر روی آنها آموزش داده شده‌اند کار میکنند.. آنها به طور پیش‌فرض به رویدادها، اخبار، کشفیات علمی یا قوانین تصویب‌شده پس از آن تاریخ دسترسی ندارند.
مثال: یک بیمار در سال ۲۰۲۴ درباره جدیدترین روش درمان سرطان خود می‌پرسد. مدلی که دانش آن به سال ۲۰۲۲ ختم شده، ممکن است روشی را توصیه کند که امروزه منسوخ شده و جای خود را به روش‌های مؤثرتر و کم‌عوارض‌تری داده است. پیروی از این توصیه کهنه می‌تواند عواقب درمانی جدی داشته باشد.

 

۳. عدم درک زمینه و شرایط خاص کاربر (Lack of Context)

 

هوش مصنوعی اطلاعات خصوصی و منحصربه‌فرد شما را نمی‌داند. او سابقه پزشکی کامل، وضعیت مالی دقیق، allergies (حساسیت‌ها) یا اهداف بلندمدت شما را در نظر نمی‌گیرد مگر اینکه شما صراحتاً در چت، آن را بازگو کنید، و حتی در آن صورت نیز ممکن است نتواند همه‌ی این داده‌ها را به درستی یکپارچه کند.
مثال: یک کاربر از هوش مصنوعی می‌پرسد: "برای سرمایه‌گذاری ۱۰۰ میلیون تومان چه پیشنهادی داری؟" هوش مصنوعی ممکن است بر اساس داده‌های عمومی، خرید رمزارز را پیشنهاد کند. اما این پیشنهاد بدون در نظر گرفتن سن کاربر، میزان ریسک‌پذیری، بدهی‌هایش یا شرایط بازار ایران است. ممکن است کاربر یک فرد بازنشسته باشد که تحمل نوسان شدید را ندارد و این توصیه منجر به از دست دادن سرمایه عمر او شود.

 

۴. سوگیری و انعکاس پیش‌داوری‌های داده‌های آموزشی (Bias)

 

هوش مصنوعی مانند آیینه‌ای است که داده‌های آموزش‌دهنده خود را ارائه می‌دهد. اگر این داده‌ها (که اغلب از کل اینترنت نیست) حاوی سوگیری‌های جنسیتی، نژادی، فرهنگی یا مذهبی باشد، خروجی مدل نیز می‌تواند همین سوگیری‌ها را داشته باشد و آنها را تقویت کند.
مثال: یک شرکت از هوش مصنوعی برای غربالگری رزومه متقاضیان کار استفاده می‌کند. اگر مدل بر روی داده‌های تاریخی آموزش دیده باشد که در یک رشته خاص (مثلاً مهندسی) مردان بیشتر شاغل بوده‌اند، ممکن است به طور ناخودآگاه رزومه‌های زنان را رتبه پایین‌تری دهد و این تبعیض سیستماتیک را ادامه دهد.

 

۵. ارائه توصیه‌های تخصصی بدون مسئولیت پذیری (Playing Expert)

 

مدل‌های زبانی در تقلید ازشخصیت متخصصان بسیار خوب هستند. آنها می‌توانند متنی بسیار قانع‌کننده و پر از اصطلاحات تخصصی تولید کنند که به نظر می‌رسد از یک پزشک، وکیل یا مهندس باتجربه می‌آید. اما این متن فاقد قضاوت، تجربه بالینی و مسئولیت‌پذیری یک انسان متخصص است.
مثال: کاربری علائمی مانند درد قفسه سینه را توصیف می‌کند و هوش مصنوعدلی لیست محتمل‌ترین تشخیص‌ها از "سوءهاضمه" تا "حمله قلبی" را ارائه می‌دهد. کاربر که تمایل دارد بدترین سناریو را باور کند، ممکن است دچار حمله پانیک شود یا برعکس، با خواندن تشخیص "سوءهاضمه"، از مراجعه به پزشک خودداری کند و خطر واقعی حمله قلبی را نادیده بگیرد.

 

۶. اتکای صرف به منابع نامعتبر یا تحریف‌شده

 

هوش مصنوعی همیشه توانایی تمایز قاطع بین یک منبع علمی معتبر و یک وبلاگ شبه‌علمی پر از تئوری‌های توطئه را ندارد. همچنین بخش عمده ای از دانش بشر در وبسایت های دارای دسترسی محدود قرار گرفته است که در دسترس هوش مصنوعی قرار ندارند. در نتیجه حجم زیادی از داده‌های آموزشی هوش مصنوعی را مطالب غیرموثق تشکیل میدهند، هوش مصنوعی نیز ممکن است پاسخ‌ها را بر اساس آن اطلاعات تحریف‌شده قالب‌ریزی کند.
مثال: یک کاربر در مورد واکسن‌ها سؤال می‌پرسد. هوش مصنوعی ممکن است به طور تصادفی (و بدون ذکر منبع) ادعاهایی را از وبسایت‌های ضد واکسن که در داده‌هایش وجود دارد، تکرار کند و آنها را در قالب یک پاسخ به ظاهر منطقی بگنجاند و باعث گمراهی کاربر شود.

 


جمع‌بندی و راهکار:


خطر واقعی زمانی است که ما هوش مصنوعی را به عنوان یک " oracle " (غیبگو) در نظر بگیریم، نه یک " tool " (ابزار). هوش مصنوعی یک دستیار تحقیقاتی فوق‌العاده است که می‌تواند ایده پردازی کند، متن را خلاصه کند و ساختار اولیه‌ای فراهم آورد. اما هر خروجی آن باید با این نگاه شک‌آمیز بررسی شود:

 

اعتبارسنجی: همیشه facts (حقایق)، ارجاعات و منابع ارائه‌شده را از طریق موتورهای جستجو و پایگاه‌های داده معتبر بررسی کنید.

 

تخصص انسانی: هرگز نباید جایگزین قضاوت یک متخصص آموزش‌دیده و دارای مجوز (پزشک، وکیل، مشاور مالی) شود.

 

شفافیت: از مدلی استفاده کنید که محدودیت‌های خود را بپذیرد و کاربر را به بررسی بیشتر ترغیب کند.

 

هوش مصنوعی مانند آتش است؛ می‌تواند منبعی برای انرژی و پیشرفت باشد، اما اگر بدون احتیاط با آن رفتار شود، به سرعت همه چیز را می‌سوزاند.

 

آینده به سواد دیجیتال و مهارت "همکاری انتقادی با هوش مصنوعی" گره خورده است.

نظرات (0)

پاسخ دهید

ما به نظرات شما درباره مطالب و مقالات خود توجه میکنیم و از دریافت انها خوشحال میشویم

وسط پایین
(Center-Bottom)