
سایه روشنِ هوش
چگونه اعتماد کورکورانه به هوش مصنوعی میتواند فاجعه بیافریند؟
در عصر طلایی هوش مصنوعی، مدلهای زبانی بزرگ (LLMs) مانند چراغ جادویی ظاهر شدهاند که به هر پرسشی پاسخی فوری میدهند.
در عصر طلایی هوش مصنوعی، مدلهای زبانی بزرگ (LLMs) مانند چراغ جادویی ظاهر شدهاند که به هر پرسشی پاسخی فوری میدهند.
این فناوری شگفتانگیز، Democratization of Information (همگانیسازی اطلاعات) را به سطح جدیدی رسانده است. اما در پس این توانایی خیرهکننده، یک حقیقت خطرناک نهفته است: این مدلها "میدانند" که نمیدانند. آنها ماشینهای پیشبینی آماری هستند، نه موجودات خردمند. آنها متن را بر اساس الگوهای یادگرفتهشده از دادههای عظیم تولید میکنند، نه بر اساس درک و استدلال انسانی. این مقاله به بررسی موارد concrete و خطرناکی میپردازد که در آن اطلاعات ناقص یا گمراهکننده هوش مصنوعی میتواند منجر به آسیبهای جبرانناپذیر مالی، جسمی و حقوقی برای انسانها شود.
این قویترین و خطرناکترین ضعف مدلهای زبانی است. مدل ممکن است حقایق، تاریخها، آمار، نقل قولها یا حتی کل منابع و پروندههای قضایی را به طور کامل بسازد و آن را با اطمینان کامل ارائه دهد. این کار نه از روی تقلب، که به دلیل ذات آماری مدل است. مدل الگویی را میبیند که "به نظر میرسد" درست باشد و آن را تولید میکند.
مثال: دوست وکیل من به موردی از یک لایحه نوشته شده توسط هوش مصنوعی برخورد کرده بود که در آن به قوانین و آرا وحدت وییه ای اشاره شده بود که اصلا وجود خارجی نداشتند.
هوش مصنوعی برای تهیه لایحه، به یک رأی دادگاه عالی یا یک مقاله حقوقی معتبر استناد میکند که هرگز وجود نداشته است. شماره پرونده، تاریخ و حتی نام قاضی میتواند کاملاً ساختگی باشد. یک وکیل بدون بررسی دقیق، با اعتماد به این اطلاعات، ممکن است کل پرونده خود را از دست بدهد و اعتبار حرفهای او خدشهدار شود.
دانش مدلهای ربانی بر اساس دادههایی است که تا یک تاریخ خاص بر روی آنها آموزش داده شدهاند کار میکنند.. آنها به طور پیشفرض به رویدادها، اخبار، کشفیات علمی یا قوانین تصویبشده پس از آن تاریخ دسترسی ندارند.
مثال: یک بیمار در سال ۲۰۲۴ درباره جدیدترین روش درمان سرطان خود میپرسد. مدلی که دانش آن به سال ۲۰۲۲ ختم شده، ممکن است روشی را توصیه کند که امروزه منسوخ شده و جای خود را به روشهای مؤثرتر و کمعوارضتری داده است. پیروی از این توصیه کهنه میتواند عواقب درمانی جدی داشته باشد.
هوش مصنوعی اطلاعات خصوصی و منحصربهفرد شما را نمیداند. او سابقه پزشکی کامل، وضعیت مالی دقیق، allergies (حساسیتها) یا اهداف بلندمدت شما را در نظر نمیگیرد مگر اینکه شما صراحتاً در چت، آن را بازگو کنید، و حتی در آن صورت نیز ممکن است نتواند همهی این دادهها را به درستی یکپارچه کند.
مثال: یک کاربر از هوش مصنوعی میپرسد: "برای سرمایهگذاری ۱۰۰ میلیون تومان چه پیشنهادی داری؟" هوش مصنوعی ممکن است بر اساس دادههای عمومی، خرید رمزارز را پیشنهاد کند. اما این پیشنهاد بدون در نظر گرفتن سن کاربر، میزان ریسکپذیری، بدهیهایش یا شرایط بازار ایران است. ممکن است کاربر یک فرد بازنشسته باشد که تحمل نوسان شدید را ندارد و این توصیه منجر به از دست دادن سرمایه عمر او شود.
هوش مصنوعی مانند آیینهای است که دادههای آموزشدهنده خود را ارائه میدهد. اگر این دادهها (که اغلب از کل اینترنت نیست) حاوی سوگیریهای جنسیتی، نژادی، فرهنگی یا مذهبی باشد، خروجی مدل نیز میتواند همین سوگیریها را داشته باشد و آنها را تقویت کند.
مثال: یک شرکت از هوش مصنوعی برای غربالگری رزومه متقاضیان کار استفاده میکند. اگر مدل بر روی دادههای تاریخی آموزش دیده باشد که در یک رشته خاص (مثلاً مهندسی) مردان بیشتر شاغل بودهاند، ممکن است به طور ناخودآگاه رزومههای زنان را رتبه پایینتری دهد و این تبعیض سیستماتیک را ادامه دهد.
مدلهای زبانی در تقلید ازشخصیت متخصصان بسیار خوب هستند. آنها میتوانند متنی بسیار قانعکننده و پر از اصطلاحات تخصصی تولید کنند که به نظر میرسد از یک پزشک، وکیل یا مهندس باتجربه میآید. اما این متن فاقد قضاوت، تجربه بالینی و مسئولیتپذیری یک انسان متخصص است.
مثال: کاربری علائمی مانند درد قفسه سینه را توصیف میکند و هوش مصنوعدلی لیست محتملترین تشخیصها از "سوءهاضمه" تا "حمله قلبی" را ارائه میدهد. کاربر که تمایل دارد بدترین سناریو را باور کند، ممکن است دچار حمله پانیک شود یا برعکس، با خواندن تشخیص "سوءهاضمه"، از مراجعه به پزشک خودداری کند و خطر واقعی حمله قلبی را نادیده بگیرد.
هوش مصنوعی همیشه توانایی تمایز قاطع بین یک منبع علمی معتبر و یک وبلاگ شبهعلمی پر از تئوریهای توطئه را ندارد. همچنین بخش عمده ای از دانش بشر در وبسایت های دارای دسترسی محدود قرار گرفته است که در دسترس هوش مصنوعی قرار ندارند. در نتیجه حجم زیادی از دادههای آموزشی هوش مصنوعی را مطالب غیرموثق تشکیل میدهند، هوش مصنوعی نیز ممکن است پاسخها را بر اساس آن اطلاعات تحریفشده قالبریزی کند.
مثال: یک کاربر در مورد واکسنها سؤال میپرسد. هوش مصنوعی ممکن است به طور تصادفی (و بدون ذکر منبع) ادعاهایی را از وبسایتهای ضد واکسن که در دادههایش وجود دارد، تکرار کند و آنها را در قالب یک پاسخ به ظاهر منطقی بگنجاند و باعث گمراهی کاربر شود.
جمعبندی و راهکار:
خطر واقعی زمانی است که ما هوش مصنوعی را به عنوان یک " oracle " (غیبگو) در نظر بگیریم، نه یک " tool " (ابزار). هوش مصنوعی یک دستیار تحقیقاتی فوقالعاده است که میتواند ایده پردازی کند، متن را خلاصه کند و ساختار اولیهای فراهم آورد. اما هر خروجی آن باید با این نگاه شکآمیز بررسی شود:
اعتبارسنجی: همیشه facts (حقایق)، ارجاعات و منابع ارائهشده را از طریق موتورهای جستجو و پایگاههای داده معتبر بررسی کنید.
تخصص انسانی: هرگز نباید جایگزین قضاوت یک متخصص آموزشدیده و دارای مجوز (پزشک، وکیل، مشاور مالی) شود.
شفافیت: از مدلی استفاده کنید که محدودیتهای خود را بپذیرد و کاربر را به بررسی بیشتر ترغیب کند.
هوش مصنوعی مانند آتش است؛ میتواند منبعی برای انرژی و پیشرفت باشد، اما اگر بدون احتیاط با آن رفتار شود، به سرعت همه چیز را میسوزاند.
آینده به سواد دیجیتال و مهارت "همکاری انتقادی با هوش مصنوعی" گره خورده است.
ما به نظرات شما درباره مطالب و مقالات خود توجه میکنیم و از دریافت انها خوشحال میشویم