یادگیری ماشین، ضمن صرفهجویی میلیونها دلار در بخش تحقیقوتوسعه، میتواند زمان توسعهی یک دارو یا واکسن را کاهش دهد.
در فصل آنفلوانزای امسال سیستم ایمنی بسیاری از مردم بهشدت درحال فعالیت بود. براساس گزارش مرکز کنترل و پیشگیری بیماری (CDC)، در ماههای اخیر در اثر ابتلا به آنفلوانزا، بیش از ۱۸۰ هزار آمریکایی در بیمارستان بستری شده و ۱۰ هزار نفر نیز از دنیا رفتند. این در حالی است که ویروس کرونا نیز با سرعت نگرانکنندهای درحال پیشروی در مناطق مختلف جهان است. ترس از شیوع ویروس کرونا حتی موجب شد کنگرهی جهانی موبایل در بارسلونا لغو شود. اما در آیندهی نزدیک، استفاده از هوش مصنوعی برای تولید واکسن و دارو میتواند به مهار بیماری قبل از اینکه تبدیل به همهگیری جهانی شود، کمک کند.
روشهای متداول توسعه دارو و واکسن بسیار ناکارآمد هستند. پژوهشگران در آزمایشگاهها چندین سال، بهطور مداوم مشغول آزمایش مولکولهای کاندیدا و آزمون و خطای روشهای مختلف هستند. براساس گزارش مطالعهای که در سال ۲۰۱۹ منتشر شد، توسعهی یک درمان دارویی بهطور متوسط هزینهای برابر ۲/۶ میلیارد دلار دارد (بیش از دو برابر هزینهی سال ۲۰۰۳) و تنها حدود ۱۲ درصد از داروهایی که وارد کارآزماییهای بالینی میشوند، تایید سازمان غذا و دارو را میگیرند. دکتر اوا ماریا اﺳﺘﺮاوچ، استادیار علوم دارویی و زیستپزشکی دانشگاه جورجیا گفت:
واقعا ۵ تا ۱۰ سال طول میکشد تا FDA دارویی را تصویب کند.
اگرچه به کمک سیستمهای یادگیری ماشین، پژوهشگران حوزهی زیستپزشکی میتوانند اساسا مرحلهی آزمون و خطا را خلاصه کنند. پژوهشگران بهجای اینکه بهطور مداوم درمانهای احتمالی را بهصورت دستی امتحان کنند، میتوانند از سیستم هوش مصنوعی استفاده کنند تا مولکولها و ترکیبات موجود در یک پایگاه بزرگ داده را جستجو کرده و آنها را براساس احتمال اثربخشی مرتب کند. جاشوا اسوامیداس، متخصص بیولوژی محاسباتی در دانشگاه واشنگتن در سال ۲۰۱۹ در مصاحبه با The Scientist گفته بود:
بسیاری از سوالاتی که پیشروی تیمهای توسعهی دارو است، دیگر از آن نوع سوالاتی نیست که مردم فکر میکنند بتوان ازطریق مرتب کردن دادهها در ذهن خود، پاسخ آن را پیدا کنند. بهمنظور جستجوی دادهها و پاسخ دادن به سوالات و کسب بینش در زمینهی چگونگی انجام کارها، باید از روشی سیستماتیک استفاده کرد.
داروی تربینافین را درنظر بگیرید. تربینافین یک داروی ضدقارچ خوراکی است که برای درمان برفک در سال ۱۹۹۶ با نام تجاری لامیفیل وارد بازار شد. طی مدت سه سال، چندین نفر گزارش کردند که در اثر مصرف دارو دچار عوارض جانبی شدهاند و تا سال ۲۰۰۸ سه نفر بهخاطر مسمومیت کبدی از دنیا رفته و ۷۰ نفر نیز بیمار شده بودند. پزشکان دریافتند که یکی از متابولیتهای تربینافین (TBF-A) علت آسیب کبدی بوده است اما در آن زمان متوجه نشدند که متابولیت مذکور چگونه در بدن تولید میشود. به این ترتیب، این مسیر متابولیکی بهمدت یک دهه برای جامعه پزشکی همچنان یک معما بود تا اینکه در سال ۲۰۱۸، نالیدانگ از دانشگاه واشنگتن یک سیستم هوش مصنوعی را درزمینهی مسیرهای متابولیکی آموزش داد تا ماشین بتواند مسیرهای احتمالی را که در آن کبد میتواند تربینافین را به TBF-A بشکند، پیدا کند. ظاهرا ایجاد متابولیت سمی یک فرایند دو مرحلهای بوده که تشخیص تجربی یکی از مراحل آن بسیار دشوار است اما قابلیت تشخیص الگوی هوش مصنوعی به آسانی آن را پیدا میکند. طی ۵۰ سال گذشته، بیش از ۴۵۰ دارو از بازار خارج شدهاند که علت آن در بیشتر موارد، مسمومیت کبدی بوده است.
در همین راستا سازمان غذا و دارو وبسایتی تحت عنوان Tox21.gov دارد که یک پایگاه داده آنلاین متشکل از مولکولها و سمیت نسبی آنها دربرابر پروتئینهای مختلف انسانی است. پژوهشگران امیدوارند با آموزش یک سیستم هوش مصنوعی با استفاده از این مجموعه دادهها، بتوانند سریعتر این موضوع را مشخص کنند که آیا یک درمان بالقوه میتواند موجب بروز عوارض جانبی شود. سام مایکل، مدیر ارشد فناوری اطلاعات مرکز ملی Advancing Translational Sciences که به ایجاد این پایگاه داده کمک کرده است، گفت:
ما در گذشته با یک چالش اساسی روبهرو بودهایم: آیا میتوان سمیت ترکیبات را از قبل پیشبینی کرد؟ این دقیقا برعکس کاری است که ما در غربالگری یک مولکول کوچک برای داروسازی انجام میدهیم. ما نمیخواهیم یک هدف دارویی پیدا کنیم بلکه میخواهیم احتمال سمی بودن ترکیبات را مشخص کنیم.
سیستمهای هوش مصنوعی میتوانند به طراحی واکسن بهتری برای بیماریهایی مانند آنفلوانزا نیز کمک کنند. در سال ۲۰۱۹، پژوهشگران دانشگاه فلیندرز استرالیا از هوش مصنوعی برای تقویت یک واکسن آنفلوانزای معمولی استفاده کردند که بدن هنگام مواجهه با آن غلظتهای بالاتری از آنتیبادیها تولید کند.
البته ازنظر فنی این گونه نیست که بدون دخالت پژوهشگران، هوش مصنوعی بهخودیخود یک واکسن را از اول تا آخر طراحی کند. پژوهشگران درگیر پژوهش یادشده، تحت هدایت نیکولای پترووسکی، استاد پزشکی دانشگاه فلیندرز، اول الگوریتمی به نام AI Sam (الگوریتم جستجوی لیگاندها) ساختند. این الگوریتم با هدف تمایز میان مولکولهایی که دربرابر آنفلوانزا موثر هستند، از مولکولهایی که اثری ندارند، آموزش داده شد. در ادامه، برنامهی دومی برای ایجاد تریلیونها ترکیب شیمیایی آموزش دید و دادههای حاصل از آن با استفاده از الگوریتم اول (AI Sam) مورد تجزیهوتحلیل قرار گرفت. در این مرحله، الگوریتم باید مشخص میکرد که آیا ترکیبات پیشنهادی دربرابر آنفلوانزا تاثیری دارند یا نه. به این ترتیب، ترکیبات برتر انتخاب شدند و پژوهشگران آنها را در آزمایشگاه ساختند. پس از آن، آزمایشهای حیوانی انجام شد و نتایج نشان داد که واکسن تقویتشده نسبتبه واکسن پیشین که چنین فرایندی را نگذرانده بود، موثرتر است.
با آغاز سال جدید میلادی، کارآزماییهای انسانی مقدماتی در کشور آمریکا شروع شد و انتظار میرود که حداقل تا ۱۲ ماه ادامه داشته باشد. اگر روند تایید واکسن با مشکلی مواجه نشود، واکسن تقویتشده میتواند طی دو سه سال در دسترس عموم قرار گیرد. این مدت زمان برای واکسنی که توسعهی آن دو سال زمان برده است (نسبتبه حالت معمول که ۵ تا ۱۰ سال طول میکشد)، بد نیست.
درحالیکه سیستمهای یادگیری ماشین میتوانند مجموعه دادههای عظیم را بسیار سریعتر از پژوهشگران بیولوژی مورد جستجو قرار داده و برآوردهای دقیقتری فراهم کنند و نیز ارتباطات ظریف میان اجزا را درنظر بگیرند، در آیندهی نزدیک نیز انسانها همچنان در حلقهی توسعهی دارو حضور خواهد داشت. یک دلیل آن است که چه کسی میخواهد تمام دادههای آموزشی مورد نیاز برای آموزش سیستم هوش مصنوعی را جمعآوری، ترکیب، سازماندهی، فهرستبندی و برچسبگذاری کند؟
حتی زمانی که سیستمهای یادگیری ماشین کارآمدتر میشوند، اگر از دادههای اریب یا ناقص استفاده شود، درست مانند دیگر سیستمهای هوش مصنوعی، نتایج بهینهای حاصل نخواهد شد. دکتر چارلز فیشر، بنیانگذار و مدیرعامل Unlearn.AI در ماه نوامبر نوشت:
بسیاری از مجموعه دادههایی که در پزشکی مورد استفاده قرار میگیرد، عمدتا مربوط به جوامع سفیدپوست اروپا و آمریکای شمالی است. اگر پژوهشگری یادگیری ماشین را درمورد یکی از این مجموعه دادهها به کار ببرد و یک نشانگر زیستی را برای پیشبینی پاسخ به درمان خاصی کشف کند، هیچ تضمینی وجود ندارد که آن نشانگر در جمعیتهای متفاوت نیز به کار آید.
فیشر توصیه میکند که برای مقابله با تاثیر اریب دادهها روی نتایج از مجموعه دادههای بزرگتر، نرمافزارهای پیشرفتهتر و کامپیوترهای قدرتمندتر استفاده شود. جیل بکر، مدیر عامل شرکت Kebotix نیز در این باره چنین توضیح داده است که یکی دیگر از اجزای مهم، «دادههای پاک» است. این استارتاپ برای طراحی و توسعهی مواد کمیاب و شیمیایی، از هوش مصنوعی درکنار رباتیک استفاده میکند. بکر توضیح داد:
ما سه منبع داده داریم. میتوانیم دادههای خود را تولید کنیم... مثلا هنگام محاسبات نیمهتجربی، همچنین آزمایشگاههایی را برای تولید دادهها داریم و درکنار اینها، دادههای خارجی نیز وجود دارند. دادههای خارجی میتواند از مجلات باز (دسترسی آزاد) یا اشتراکی و نیز از ثبت اختراعات و شرکتهای پژوهشی حاصل شود اما صرفنظر از منبع، ما زمان زیادی را صرف پاکسازی دادهها میکنیم.
مایکل نیز در این باره گفت:
درمورد این مدلها، اطمینان از اینکه دادهها از فرادادههای مناسبی برخوردار هستند، بسیار حیاتی است (فراداده: گروهی از دادهها که ویژگیهای دادههای دیگر را توصیف میکنند). این مساله بهخودیخود اتفاق نمیافتد و باید برای آن تلاش کنید. این کار سخت است زیرا گران و زمانبر است.
پاسخ ها