با وجود گذشت دههها از ساخت اولین سیستمهای هوش مصنوعی، ما هنوز درک درستی از عملکرد این فناوری نداریم و احتمالاً هرگز نخواهیم داشت.
بسیاری از کسانی که کار روی انواع سیستمهای هوش مصنوعی را آغاز کردند، مطمئن نبودند که این سیستمها دقیقاً چگونه کار میکنند. با وجود گذشت دههها ما هم هنوز درک بیشتری نسبت به آنها نداریم و بهنظر میرسد که این سیستمها در آینده حتی پیچیدهتر و غیرقابلدرکتر خواهند شد.
«جک دی کوان»، ریاضیدان و زیستشناسی نظری در سال 1956 در سفری یکساله به لندن به ملاقات «ویلفرد تیلور» و «دستگاه یادگیری» عجیبوغریب او رفت. او از دیدن دستگاه بزرگ و پیچیدهای که پیش رویش قرار داشت، شگفتزده شده بود. کوان تنها میتوانست بایستد و عملکرد این ماشین را تماشا کند که ظاهراً داشت یک طرح حافظه را شبیهسازی میکرد؛ بهعبارت دیگر این دستگاه میتوانست یاد بگیرد که چگونه رابطه میان دادهها را بیابد و اطلاعات استخراج کند.
دستگاه تیلور شاید در ظاهر شبیه مجموعه بزرگی از مدارها بود که به هم لحیم و با مقدار زیادی سیم به یکدیگر متصل شده بودند، اما آنچه کوان میدید نمونه اولیهای از یک شبکه عصبی بود؛ سیستمی که در نهایت پس از چند دهه به پیشرفتهترین فناوریهای هوش مصنوعی از جمله ChatGPT تبدیل شد. فناوری زیربنایی ChatGPT همین شبکه عصبی اما پیشرفتهتر است.
کوان و تیلور در سال 1956 میایستادند و عملکرد این دستگاه را تماشا میکردند، اما نمیدانستند که این ماشین چگونه کارهای خود را انجام میدهد. پاسخ معمای مغز ماشینی تیلور در جایی میان «نورونهای آنالوگ»، در رابطه میان حافظه ماشینی و از آن مهمتر، در این حقیقت وجود داشت که این عملکردهای خودکار را نمیتوان بهطور کامل توضیح داد.
عبارت شبکه عصبی دربرگیرنده دامنه وسیعی از سیستمهاست. بهگفته شرکت آیبیام، شبکههای عصبیهای – که با عنوان شبکههای عصبی مصنوعی (ANN) یا شبکههای عصبی شبیهسازیشده (SNN) هم شناخته میشوند – زیرمجموعهای از مبحث یادگیری ماشینی هستند و در دل الگوریتمهای یادگیری عمیق قرار میگیرند. نکته مهم اینجاست که این عبارت و شکل پیادهسازی آن با الهام از مغز انسان ساخته شده است و شیوه ارسال سیگنال توسط نورونهای زیستی به یکدیگر را شبیهسازی میکند.
در مراحل ابتدایی شاید تردیدهایی درباره ارزش این سیستمها وجود داشت، اما با گذشت سالها، سیستمهای هوش مصنوعی بیشتر و بیشتر بهسمت شبکههای عصبی حرکت کردند. حالا گفته میشود که این شبکهها آینده هوش مصنوعی را شکل خواهند داد. این فناوری پیچیدگیهای زیادی را برای ما و آنچه ما را تعریف میکند، بهوجود میآورند. اخیراً زمزمههایی را در این رابطه شنیدهایم. گروهی از فعالان فناوری ازجمله ایلان ماسک خواستار توقف ششماهه توسعه مدلهای هوش مصنوعی شدهاند تا درباره این پیچیدگیها اطمینان بیشتری پیدا کنند.
البته سادهلوحانه است اگر این شبکههای عصبی را صرفاً بهعنوان ابزارهای هیجانانگیز و داغ در نظر بگیریم. این فناوری مدتهاست که به زندگی ما وارد شده است. در سال 1989 گروهی از محققان آزمایشگاه AT&T Bell از روش انتشار معکوس استفاده کردند تا سیستمی را برای شناسایی کدهای پستی دستنویس آموزش بدهند. در همین اواخر، مایکروسافت از نسخه جدید بینگ پرده برداشت که با کمک هوش مصنوعی میتواند به کمکخلبان شما برای وبگردی تبدیل شود.
هوش مصنوعی با تکیه بر حجم عظیمی از دادهها برای یافتن الگوها میتواند برای انجام کارهایی مثل تشخیص سریع تصاویر استفاده شود. در نتیجه، برای مثال امروز سیستمهای تشخیص چهره را داریم. همین ویژگی در تشخیص الگوها باعث بهوجود آمدن ابزارهای دیگری مثل ابزارهای پیشبینی قیمت سهام شده است.
شبکههای عصبی شیوه درک و ارتباطات ما را هم تغییر میدهند. برای مثال سرویس گوگل ترنسلیت که توسط تیم گوگل Brain توسعه داده شده است، نمونه دیگری از این شبکهها بهحساب میآید. از طرفی، مردم دیگر نمیخواهند با کامپیوترها شطرنج یا شوگی بازی کنند. کامپیوترها تسلط بالایی بر قوانین دارند و با کمک شبکههای عصبی میتوانند همه استراتژیها و حرکات ممکن را بهخاطر بیاورند و بسیار بهتر از انسانها این بازیها را انجام دهند.
ولی گستره قابلیتهای این فناوری فقط به همین موارد محدود نمیشود. اگر جستوجوی سادهای بهدنبال پتنتهای مربوط به شبکههای عصبی داشته باشید، به 135,828 نتیجه میرسید. با این سرعت بالای توسعه، احتمال این که ما بتوانیم یک روز اثر واقعی هوش مصنوعی را متوجه شویم، کم و کمتر میشود.
توجه به تاریخ شبکههای عصبی نکته مهمی را درباره تصمیمگیریهای خودکار به ما یادآوری میکند، تصمیمگیریهایی که حال حاضرمان را تعریف میکنند یا احتمالاً بر آیندهمان اثر بزرگتری خواهند گذاشت. همین تصمیمگیریهای خودکار به ما نشان میدهد که احتمالاً با گذشت زمان درک کمتری نسبت به هوش مصنوعی و آثار آن پیدا خواهیم کرد.
هوش مصنوعی نه یک جعبه سیاه، بلکه چیزی است که ریشه آن به هدف و طراحی این سیستمها برمیگردد. انسان همواره بهدنبال چیزهای غیرقابلتوضیح بوده است. هرچه یک سیستم ناشناختهتر باشد، تصور میشود که اصیلتر و پیشرفتهتر است. مسئله فقط این نیست که این سیستمها دارند پیچیدهتر میشوند یا مالکیتهای فکری جلوی دسترسی به سازوکارهای آنها را میگیرد (هرچند مورد دوم بیتأثیر هم نیست). در عوض باید گفت کسانی که این فناوری را توسعه میدهد علاقه و اشتیاق خاصی نسبت به «ناشناختگی» دارند.
این رازآلودگی حتی در فرم و گفتمان شبکههای عصبی نهادینه شده است. این سیستمها دارای لایههای عمیق زیادی هستند – که نام یادگیری عمیق از همینجا میآید – و در این اعماق لایههای مخفیانهای وجود دارند که اسرارآمیزتر بهنظر میرسند. اسرار این سیستمها با فاصله زیادی از لایههای سطح در اعماق این سیستمها قرار دارد.
احتمالش بالاست که هرچه اثر هوش مصنوعی در زندگی ما بیشتر شود، درک ما از چرایی و چگونگی این فناوری کمتر شود. امروزه افراد زیادی در تلاشند تا هوش مصنوعی را قابلدرک کنند. ما میخواهیم بدانیم این فناوری چگونه کار میکند و تصمیمگیریهای خود را انجام میدهد. اتحادیه اروپا از ریسکهای غیرقابلپذیرش و کاربردهای خطرناک هوش مصنوعی نگران است. ازاینرو، آنها مشغول کار روی قانون جدیدی برای هوش مصنوعی هستند که میخواهد استانداردهایی را برای توسعه ایمن، قابلاطمینان و اخلاقی این فناوری تدوین کند.
این قوانین جدید براساس نیاز به توضیحپذیری تنظیم میشوند، و درخواست میکنند که سیستمهای هوش مصنوعیِ پرریسک مستندات مناسب، شفافیت، دادههای قابل ردیابی، نظارت انسانی و دقت بالایی داشته باشند. این پیشنیازها میتواند ریسک خطرات این فناوری را کاهش دهد. وجود قوانین نهفقط برای ابزارهایی مثل سیستمهای خودران اتومبیلها بلکه برای تمام سیستمهای آینده ضروری است، چون میتوانند حقوق بشر را تهدید کنند.
این اقدامات بخشی از فراخوانی عمومی بهمنظور افزایش شفافیت در حوزه هوش مصنوعی است تا فعالیتها در این زمینه قابل بررسی، حسابرسی و ارزیابی باشد. مثال دیگری که در این زمینه میتوان زد سیاستهای Royal Society در زمینه هوش مصنوعیِ توضیحپذیر است. این انجمن میگوید روزبهروز افراد بیشتری در سراسر دنیا خواستار شکلی از توضیحپذیری برای هوش مصنوعی هستند تا بتوان اصول اخلاقی را در طراحی و پیادهسازی این سیستمها به کار گرفت.
بااینحال، داستان شبکههای عصبی به ما نشان میدهد که احتمالاً هر سال از این هدف دورتر خواهیم شد.
شبکههای عصبی شاید سیستمهای پیچیدهای باشند، اما چند اصول مشخص دارند. این شبکهها با الگوبرداری از مغز انسان ساخته میشوند، یعنی سعی میکنند شکلهای بیولوژیکی و فکری مغز را کپی یا شبیهسازی کنند. آنطور که آیبیام میگوید، این سیستمها از نظر ساختار و طراحی از لایههایی از گرهها (Node) ساخته شدهاند که شامل یک لایه ورودی، یک یا چند لایه مخفی و یک لایه خروجی است.
در این ساختار هر گره یا نورون مصنوعی به نورونهای دیگر وصل شده است. از آنجایی که این نورونها برای تولید خروجی نیازمند ورودی و اطلاعات هستند، با اتکا بر دادههای تمرینی آموزش میبینند و در طول زمان دقت خود را افزایش میدهند. این جزئیات فنی اهمیت دارد، اما تمایل به مدلسازی این سیستمها با الگوبرداری از پیچیدگی مغز انسان نیز مهم است.
آگاهی از جاهطلبی پشت این سیستمها، در درک تأثیر این جزئیات فنی بر عملکرد سیستمها نقش حیاتی دارد. «تیوو کوهونن»، متخصص شبکههای عصبی در مصاحبهای در سال 1993 نتیجهگیری کرده بود که رویایش ساخت یک سیستم «خود-سامانده» است که بتواند شبیه سیستم عصبی ما عمل کند. بهعنوان مثال کوهونن میگفت چگونه سیستمی که بر خودش نظارت دارد و خودش را مدیریت میکند، میتواند بهعنوان دستگاهی برای نظارت بر سایر ماشینها استفاده شود. او باور داشت که با این سازوکار میشود در یک نگاه متوجه شد که وضعیت سیستمهای پیچیده چگونه است.
هدف کلی داشتن سیستمی بود که بتواند خود را با وضعیت محیطش انطباق بدهد. چنین سیستمی میتواند فوری و خودکار عمل کند و شبیه سیستم عصبی انسان باشد. رویای متخصصانی مثل کوهونن این بود که سیستمها بتوانند بدون نیاز به دخالت انسان کار کنند. پیچیدگیها و ناشناختگیهای مغز، سیستم عصبی و جهان واقعی خیلی زود بر طراحی و توسعه شبکههای عصبی هم اثر گذاشت.
حتماً متوجه شدهاید که وقتی درباره شبکههای عصبی حرف میزنیم، همیشه بخشی از این معادله به پیچیدگی مغز انسان مربوط میشود، چرا که منبع الهام اصلی این سیستمها بوده است. مغز هنوز یکی از ناشناختههای بزرگ جهان است و با این وجود بهعنوان الگوی عملکرد شبکههای عصبی انتخاب شده است. بنابراین طبیعی است که درک این سیستمها هم کار دشواری باشد.
«کارور مید»، مهندس رایانش عصبی در همین باره مبحث جالبی را پیرامون مفهومی موسوم به «کوه یخ شناختی» مطرح میکند. او میگوید ما فقط از نوک کوه یخ خودآگاهی اطلاع داریم و فقط همان قسمت کوچک را میبینیم. در نتیجه، بخش بسیار بزرگتری وجود دارد که در زیر سطح آب ناشناخته باقی مانده است.
«جیمز اندرسون» که در سال 1998 چند وقتی بود روی شبکههای عصبی کار میکند، متوجه شد که در بحث تحقیقات پیرامون مغز، بزرگترین چیزی که میدانیم صرفاً نوعی آگاهی است، آگاهی از این که ما واقعاً نمیدانیم در جهان چه اتفاقاتی در جریان است.
«ریچارد واترز»، خبرنگار فناوری نشریه فایننشال تایمز در سال 2018 در یادداشتی نوشت که چگونه شبکههای عصبی براساس نظریهای پیرامون نحوه عملکرد مغز انسان مدلسازی شدهاند و دادهها را از طریق لایههایی از نورونهای مصنوعی عبور میدهند تا به یک الگوی قابلتشخیص برسند.
واترز میگفت این موضوع مشکلی را بهوجود میآورد، چون برخلاف مدارهای منطقی که در برنامههای نرمافزاری سنتی به کار گرفته میشدند، هیچ راهی برای ردیابی این روندهای جدید وجود ندارد و نمیتوان دقیقاً گفت که کامپیوتر چطور به این پاسخها رسیده است. واترز نتیجه گرفته بود که این خروجیها را نمیتوان معکوس کرد. استفاده از این شیوه مدلسازی از مغز، یعنی عبوردادن دادهها از میان تعداد زیادی لایه، بهمعنای این است که نمیتوان بهراحتی مسیر بهدستآمدن پاسخ را ردیابی کرد. چندلایهبودن سیستم یکی از دلایل اصلی این مشکل است.
دانشمندانی مثل مید و کوهونن میخواستند سیستمی بسازند که ذاتاً بتواند خود را با جهان اطرافش انطباق بدهد. چنین سیستمی میتواند با توجه به شرایط پاسخهای متفاوت ارائه کند. مید بهروشنی باور داشت که ارزش شبکههای عصبی به همین توانمندی در رسیدن به انطباقپذیری است. او همچنین میگفت که دستیابی به این امکان هدف اصلی آنهاست. او معتقد بود که این انطباقپذیری بهخاطر ماهیت جهان ما لازم است، چون همهچیز در آن تغییر میکند.
به این مسئله باید بهطور خاص رسیدگی میشد، چون مید باور داشت که این موضوع مدتها پیش توسط سیستم عصبی ما برطرف شده بود. این دو متخصص نهتنها با تصویری از مغز و ناشناختههای آن کار میکردند، بلکه آن را با بینشی از «جهان واقعی» و تردیدها، ناشناختهها و تغییرات آن ترکیب میکردند. مید اعتقاد داشت که این سیستمها باید بتوانند بدون دریافت دستورالعملهای جدید به شرایط گوناگون پاسخ بدهند و خود را با آنها منطبق کنند.
در همان حوالی زمانی در دهه 1990، «استفن گروسبرگ»، متخصص سیستمهای شناختی که در زمینه ریاضیات، روانشناسی و مهندسی زیستپزشکی کار کرده بود، هم باور داشت که انطباقپذیری چیزی است که در درازمدت اهمیت بسیاری پیدا میکند. گروسبرگ در حین مدلسازی شبکههای عصبی با خود فکر کرد که مهمترین نکته این است که چطور روشهای اندازهگیری بیولوژیکی و سیستمهای کنترلی ما طراحی شدهاند تا بهشکلی سریع و پایدار در لحظه خود را با جهانی که به سرعت در حال تغییر است، انطباق بدهند.
همانطور که بالاتر درباره رویای کوهونن درباره یک سیستم «خود-سامانده» گفتیم، فهم «جهان واقعی» تبدیل به زمینه اصلی برای تبیین پاسخها و انطباقهایی میشود که درون این سیستمها کارگذاری خواهند شد. حال این که چگونه این جهان را درک و تصور کنیم، بدون شک بر نحوه طراحی سیستمهایی با قابلیت انطباقپذیری اثر خواهد گذاشت.
با افزایش تعداد لایهها، یادگیری عمیق به عمقهای جدیدی رسید. «لری هاردستی»، نویسنده علوم کامپیوتر، میگوید شبکههای عصبی با اطلاعاتی آموزش داده میشود که به لایه پایینی آنها – یعنی لایه ورودی – داده میشود و از لایههای بعدی میگذرد و به روشهای پیچیده با یکدیگر ترکیب میشود تا در نهایت به شکلی بسیار متفاوت به لایه خروجی برسد.
هرچه تعداد لایهها بیشتر باشد، تحولات عظیمتر میشود و فاصله میان ورودی و خروجی افزایش مییابد. توسعه پردازشگرهای گرافیکی (GPU) امکان ایجاد شبکههای یکلایه در دهه 1960 و شبکههای سهلایه در دهه 1980 را فراهم کرد. حالا امروزی شبکههایی با 10، 15 و حتی 50 لایه داریم.
شبکههای عصبی دارند عمیقتر میشوند. بهگفته هاردستی، همین افزودن لایههاست که کلمه «عمیق» را در «یادگیری عمیق» بهوجود آورده است. این مسئله اهمیت دارد، چون در حال حاضر یادگیری عمیق پشت بهترین سیستمها در تقریباً هر حوزهای از تحقیقات پیرامون هوش مصنوعی است.
اما این معما حتی از این هم پیچیدهتر میشود. با افزایش لایهها در شبکههای عصبی، پیچیدگی آنها بیشتر شده است. این مسئله همچنین به چیزی منجر شده که ما از آن با عنوان «لایههای مخفی» یاد میکنیم. بحث پیرامون بهترین تعداد لایههای مخفی در شبکههای عصبی همچنان ادامه دارد. «بئاتریس فازی»، تئوریسین رسانهای میگوید بهخاطر نحوه عملکرد شبکههای عصبی عمیق، و اتکا بر لایههای عصبی مخفی که میان اولین لایه نورونها (لایه ورودی) و آخرین لایه آنها (لایه خروجی) قرار گرفتهاند، تکنیکهای یادگیری عمیق اغلب حتی برای توسعهدهندگان آنها غیرشفاف و غیرقابلفهم هستند.
با افزایش تعداد لایهها (مشتمل بر لایههای مخفی) توضیحپذیری این سیستمها کمتر میشود. «کاترین هیلز»، متفکر برجسته حوزه رسانه در این باره میگوید محدودیتهایی پیرامون میزان فهمی که میتوانیم درباره این سیستمها داشته باشیم، وجود دارد و این مسئله تحتتأثیر شبکه لایههای مخفی و الگوریتمهای یادگیری عمیق است.
تمام این پیشرفتها بخشی از چیزی است که «تاینا بوچر»، جامعهشناس فناوری از آن با عنوان «مشکل ناشناخته» نام میبرد. «هری کالینز»، محقق هوش مصنوعی میگوید هدف شبکههای عصبی این است که احتمالاً توسط یک انسان نوشته شوند اما در ادامه به حیات مستقل خود ادامه دهند. بااینحال، او میگوید شیوه دقیق عملکرد این برنامهها میتواند بهشکل یک معما باقی بماند. این موضوع متأثر از همان رویای دیرینه ساخت سیستمهای خود-سامانده است.
گفتنی است که ناشناختهها و ناشناختنیها از همان ابتدا بهعنوان یکی از اصول بنیادین این سیستمها دنبال شدهاند. پس این احتمال وجود دارد که هر چه اثر هوش مصنوعی در زندگی ما بیشتر شود، فهم ما از چرایی و چگونگی این سیستمها کمتر شود.
بااینوجود، همانطور که گفتیم خیلیها نمیخواهند این مسئله را بپذیرند. بشر میخواهد بداند هوش مصنوعی چطور کار میکند، چطور تصمیمهای خود را میگیرد و این تصمیمها چه تأثیری بر ما خواهد داشت. اما وقتی حرف از هوش مصنوعی توضیحپذیر و شفاف به میان میآید، داستان شبکههای عصبی به ما یادآوری میکند که به احتمال زیاد هر چه جلوتر برویم، فاصله ما با این هدف بیشتر خواهد شد.
پاسخ ها