فرض کنید یه دستیار هوشمند دارید که هر صبح قبل از بیدار شدن، دما و نور اتاق رو دقیقاً طبق عادتهاتون تنظیم میکنه و حتی برنامه روزتون رو هم پیشنهاد میده. حالا اگه این دستیار حال و هواتون رو درست درک نکنه یا شرایطتون رو نسنجیده باشه، احتمالا باعث آزارتون میشه یا اطلاعات اشتباه بهتون میده. هوش مصنوعی انسانمحور دقیقا برای جلوگیری از چنین مشکلاتی به وجود اومده. این رویکرد میخواد مطمئن بشه محصولات هوشمند، انسانها رو توانمند میکنه نه این که کنترل رو از دست اونها بگیرن.

هوش مصنوعی انسانمحور (HCAI) رویکردیه که در اون فناوریهای هوش مصنوعی طوری طراحی و اجرا میشن که نیازها، ارزشها و تواناییهای انسانی مرکز توجه باشن. این رویکرد میخواد تواناییهای انسان رو تقویت کنه، به حقوق و تنوع فرهنگی احترام بذاره و تعاملاتی اخلاقی و قابل اعتماد بسازه. در HCAI، کاربرا به شکل فعال توی فرآیند طراحی هوش مصنوعی، شرکت میکنن تا سیستمها واقعا با زندگی روزمره کاربر هماهنگ باشن.
وقتی میخواین یه محصول یا سرویس هوش مصنوعی طراحی کنید، مثل دستیارهای صوتی یا سیستمهای پیشنهاددهنده، باید به چارچوبهای انسانمحور توجه کنید. این کار باعث میشه محصول هم راحت استفاده بشه و هم حس امنیت بده.
توی حوزههایی مثل سلامت، آموزش یا امور مالی، یه خطای کوچیک میتونه زندگی آدمها رو تغییر بده. چارچوبهای HCAI کمک میکنن تصمیمها دقیقتر باشن و خطرها یا بیعدالتیها کمتر بشن.
وقتی قراره کاربر با یه سیستم هوشمند گفتگو یا تعامل پیچیده مثل چتباتها داشته باشه، چارچوبهای انسانمحور کمک میکنن رفتار سیستم واضح، قابل پیشبینی و شفاف باشه.
سرویسهایی مثل نتفلیکس و اسپاتیفای با تحلیل دادههای کاربران، پیشنهادهایی میدن که کاملا متناسب با سلیقه هر فرد باشه.
هوش مصنوعی میتونه با ابزارهایی مثل تبدیل گفتار به متن یا ترجمه همزمان، به انسانهایی که محدودیت دارن کمک کنه و استفاده از سرویسها رو براشون آسونتر کنه.
سیستمهای تشخیص زودهنگام بیماری با توجه به شرایط خاص هر بیمار، مراقبت دقیقتر و مؤثرتری رو فراهم میکنن.
توی کسبوکارها، کارهای تکراری به شکل خودکار انجام میشن و این باعث میشه طراحان و تیمها زمان بیشتری برای نوآوری و حل مسئله داشته باشن.
وقتی چارچوبهای انسانمحور استفاده بشه، کاربران راحتتر به فناوری اعتماد میکنن و پذیرششون بیشتر میشه.
هوش مصنوعی (IBM) روی این مسئله تأکید داره که برای طراحی درست سیستمهای هوشمند باید شرایط واقعی کاربر رو در نظر گرفت. سه عامل اصلی در این شرایط خیلی مهمه:
ترکیب این سه عامل نشون میده AI کجا میتونه خودش تصمیم بگیره و کجا باید فقط نقش دستیار داشته باشه. هدف اینه که هوش مصنوعی همیشه کنار انسان باشه و کمکش کنه، نه اینکه جای اون رو بگیره.
وقتی یه سیستم هوش مصنوعی تصمیمی میگیره، ما معمولا دلیلش رو نمیفهمیم چون سیستم توضیح روشنی ارائه نمیده. مشکل اینجاست که وقتی پای تصمیمهای مهم وسطه (مثل رد شدن وام یا تشخیص بیماری)، کاربر باید دلیل تصمیم رو مستقیم و شفاف از سیستم بگیره. اینجاست که روبریک توضیحپذیری گوگل وارد میشه. این یه ابزار راهنماست برای تیمهای طراحی و توسعه. بهشون کمک میکنه مشخص کنن:
گوگل در روبریک یه لیست ۲۲ موردی آماده کرده که نشون میده چه جور اطلاعاتی میتونه برای کاربرا شفافیت ایجاد کنه. مثلا توضیح اینکه آیا انسان هم توی روند تصمیم دخیل بوده یا نه، یا اینکه مدل تجاری شرکت چه تأثیری روی نتیجه گذاشته. این لیست رو در زیر براتون قرار دادیم:

وقتی تیمها میخوان یه محصول هوش مصنوعی طراحی کنن، معمولا نمیدونن دقیقا از کجا شروع کنن یا چه چیزایی رو باید در نظر بگیرن. اینجاست که ابزار HAX (Human–AI eXperience) به کمکشون میاد.
HAX مثل یه جعبهابزار کامل برای طراحی تجربه کاربری با AI عمل میکنه. در اون ۱۸ راهنمای اصلی هست که طراحان مایکروسافت اونها رو از بین بیش از ۱۵۰ توصیه طراحی انتخاب و جمعآوری کردن.
مزیت بزرگ HAX اینه که کمک میکنه مشکلات تجربه کاربری قبل از اینکه محصول وارد فاز کدنویسی بشه مشخص و رفع بشن. یعنی بهجای اینکه بعدا متوجه بشیم یه ویژگی درست کار نمیکنه یا کاربرا گیج میشن، از همون اول طراحی، جلوی این خطاها گرفته میشه.
Interaction Design Foundation هفت اصل کلیدی معرفی کرده و با این اصول به طراحان یادآوری میکنه که AI همیشه باید در خدمت انسان باشه:
کاخ سفید پنج اصل اصلی رو معرفی کرده تا از مردم در برابر آسیبهای احتمالی سیستمهای خودکار محافظت کنه. این اصول به طراحان کمک میکنن که مطمئن بشن محصولات هوش مصنوعی با حقوق شهروندی سازگارن:
وقتی دادههای آموزش جانبدارانه وارد سیستم میشن، AI تصمیمهای سوگیرانه میگیره. طراحان باید همیشه داده و خروجیها رو بررسی کنن و هرجا مشکلی دیدن، اونها رو اصلاح کنن.
بعضی تیمها میخوان همه چیز رو خودکار کنن. ولی منشور حقوق AI تأکید میکنه تیمها توی حوزههای حساس باید امکان دخالت انسان و انتخاب دستی رو فراهم کنن.
وقتی سیستم فقط توضیحات پیچیده و فنی بده، کاربران اعتمادشون رو از دست میدن. روبریک توضیحپذیری گوگل تأکید میکنه طراحان باید توضیحات رو ساده و متناسب با شرایط کاربر ارائه بدن.
اگه طراحان بدون گرفتن بازخورد مداوم از کاربران طراحی کنن، احتمال زیادی هست محصول نهایی نتونه نیازهای واقعی رو برطرف کنه.
وقتی طراحان بیش از حد داده جمع میکنن یا از اطلاعات به شکل نادرست استفاده کنن، اعتماد کاربران رو از بین میبرن و حتی باعث ایجاد مشکلات حقوقی میشن.
هوش مصنوعی انسانمحور آیندهای را ترسیم میکند که در آن ماشینها همکار انسان هستند نه جایگزین او. پنج چارچوب معرفیشده به طراحان کمک میکنند از مرحله برنامهریزی تا پیادهسازی، به امنیت، عدالت، شفافیت و احترام به حقوق انسان فکر کنند. با پیروی از این اصول و مشارکت دادن کاربران، میتوانیم سامانههایی بسازیم که هم مفیدند و هم قابل اعتماد. شما چه تجربهای از تعامل با هوش مصنوعی دارید؟ آیا محصولی دیدهاید که به خوبی از این چارچوبها پیروی کند یا بالعکس؟
دیدگاه کاربران