قیمت آنلاین
چرا «خوبی؟» برای هوش مصنوعی قابل فهم نیست؟

چرا «خوبی؟» برای هوش مصنوعی قابل فهم نیست؟

تفاوت‌های فرهنگی و چالش‌های حاکمیت داده‌ها، نقش مهمی در طراحی و استفاده از مدل‌های هوش مصنوعی دارند و راهکارهایی مانند مدل‌های محلی می‌توانند ریسک‌های حریم خصوصی را کاهش دهند.

نگار علی- یکی از نکات مهم در طراحی مدل‌های هوش مصنوعی، تفاوت‌های فرهنگی در تعاملات انسانی است؛ این تفاوت‌ها تأثیر مستقیمی بر عملکرد و کارایی مدل‌های زبانی در جوامع مختلف دارد. گفت‌وگوی حاضر با حمیدرضا کشاورز، کارشناس و فعال حوزه هوش مصنوعی و مهندس یادگیری ماشین، در کافه قیمت آنلاین انجام شده است. موضوع اصلی این بخش از گفت‌وگو بررسی تأثیر تفاوت‌های فرهنگی بر عملکرد مدل‌های هوش مصنوعی و چالش‌های مرتبط با حاکمیت داده‌ها و امنیت اطلاعات در فضای فناوری‌های نوین است.

 

کشاورز در این باره می‌گوید: «ما در فرهنگ‌هایی مثل فرهنگ ایرانی یا حتی فرهنگ‌های شرق آسیا، معمولاً از بافت فرهنگی مشترکی برخورداریم. مثلاً وقتی از کسی می‌پرسیم «خوبی؟»، او می‌داند که در آن لحظه، ما ممکن است نگران وضعیت خاصی باشیم، مثلاً تصادف یکی از اعضای خانواده‌اش. او با توجه به لحن ما و شرایط، پاسخ مناسبی می‌دهد، حتی اگر سؤال ما صریح نبوده باشد. اما مدل‌های هوش مصنوعی که در غرب توسعه یافته‌اند، چنین بافتی را نمی‌شناسند. آن‌ها با داده‌هایی آموزش دیده‌اند که بر وضوح، دقت و صراحت مبتنی است. بنابراین، اگر بخواهید از یک مدل غربی بپرسید حال برادر کسی که تصادف کرده چطور است، باید خیلی مشخص بگویید: «برادرت که تصادف کرده، الان در بیمارستان چه وضعیتی دارد؟.»

تبعات فرهنگی برای کاربران غیرغربی

این تفاوت زبانی و فرهنگی، تنها یک مسئله زیبایی‌شناسی نیست؛ بلکه تبعاتی عملی برای کاربران غیرغربی دارد. کشاورز در ادامه توضیح می‌دهد:«در چنین شرایطی، کاربران باید خود را با زبان و منطق آن مدل‌ها تطبیق دهند. این نه تنها دقت تعامل را کاهش می‌دهد، بلکه نگرانی‌هایی در حوزه‌ی مالکیت داده و حاکمیت داده‌ها هم ایجاد می‌کند. وقتی شما با مدلی تعامل می‌کنید که خارج از کشور شما توسعه یافته و روی سرورهای خارجی میزبانی می‌شود، در واقع داده‌های‌تان را در اختیار شرکتی قرار داده‌اید که ممکن است تابع قوانین کشوری دیگر باشد.»

راهکارهایی برای کاهش ریسک‌های حریم خصوصی

برای کاهش این نگرانی‌ها، برخی راه‌حل‌های فنی در حال اجرا هستند. کشاورز در این‌باره می‌گوید:«یکی از راهکارها توسعه یا استفاده از مدل‌های محلی است، مثلاً نسخه‌های کوچک LLaMA که روی سرور یا لپ‌تاپ شخصی بالا می‌آیند. اما مشکلی که هست این است که کیفیت این مدل‌های لوکال معمولاً با مدل‌های بزرگ قابل مقایسه نیست. کاری که اخیراً رایج شده، این است که ابتدا یک مدل لوکال را مسئول پاک‌سازی اطلاعات شخصی می‌کنند، مثل کد ملی، شماره تماس، یا نام افراد و بعد خروجی آن را به مدل‌های بزرگ‌تر می‌دهند تا مثلاً متن قرارداد را بازنویسی کنند. این کار تا حدی ریسک‌های حریم خصوصی را کاهش می‌دهد.»

ایجنت‌های هوشمند؛ گام بعدی هوش مصنوعی

یکی از داغ‌ترین موضوعات این روزهای حوزه فناوری، مفهوم «هوش مصنوعی عامل» یا Agentic AI است. کشاورز درباره چیستی این مفهوم و تحولاتی که به‌همراه دارد می‌گوید:«هوش مصنوعی عامل یا Agentic AI به مدل‌هایی گفته می‌شود که توانایی تصمیم‌گیری مستقل، تعامل هدف‌مند و همکاری در یک اکوسیستم پیچیده را دارند. شرکت‌هایی هستند که در دو یا سه سال اخیر به‌طور جدی در این حوزه فعال شده‌اند. تصور کنید در یک شرکت، چندین ایجنت تعریف شده: یکی مسئول ارتباط با مشتری و دریافت نیازهاست، دیگری مدیر محصول است، و ایجنت سوم برنامه‌نویس. این ایجنت‌ها با یکدیگر تعامل می‌کنند و در نهایت، محصول یا خدمتی را به خروجی می‌رسانند که خواسته‌ی مشتری بوده است.»