هوش تصنعی و مصنوعی چه‌طور می تواند همه‌گیری‌های بعدی را پیش از آغاز متوقف کند؟

یادگیری خودرو , ضمن صرفه‌جویی میلیون‌ها دلار در بخش تحقیق‌و‌توسعه , قادر است زمان توسعه‌ی یک دارو یا این که واکسن را کم کند .

در فصل آنفلوانزای همین سال سیستم ایمنی بخش اعظمی از مردمان به‌شدت درحال عمل بود . براساس گزارش راس در اختیار گرفتن و پیشگیری بیماری ( CDC ) , در ماه‌های اخیر در اثر ابتلا به آنفلوانزا , بیش تر از ۱۸۰ هزار آمریکایی در بیمار ستان بستری شده و ۱۰ هزار نفر هم از عالم رفتند . این در حالی است که ویروس کرونا هم با سرعت نگران‌کننده‌ای درحال پیشروی در بخشها متعدد عالم است . خوف از شیوع ویروس کرونا چه بسا موجب شد کنگره‌ی جهانی تلفن همراه در بارسلونا کنسل شود . ولی در آینده‌ی نزدیک , استعمال از هوش تصنعی برای ایجاد واکسن و دارو می تواند به مهار بیماری پیشین از این‌که تبدیل به همه‌گیری جهانی شود , یاری دهد .

روش‌های مرسوم توسعه و گسترش دارو و واکسن مضاعف ناکارآمد می باشند . محققان در آزمایشگاه‌ها چند سال , به‌طور مداوم سرگرم تست مولکول‌های کاندیدا و امتحان و خطای روش‌های متفاوت میباشند . براساس گزارش مطالعه‌ای که در سال ۲۰۱۹ منتشر شد , توسعه‌ی یک معالجه دارویی به‌طور میانگین هزینه‌ای برابر ۲/۶ میلیارد دلار دارااست ( بیشتراز دو برابر هزینه‌ی سال ۲۰۰۳ ) و فقط حدود ۱۲ درصد از داروهایی که وارد کارآزمایی‌های بالینی می شوند , تایید اداره طعام و دارو را می گیرند . دکتر معالج اوا ماریا اﺳﺘﺮاوچ , استادیار علم ها دارویی و زیست‌پزشکی دانشکده جورجیا خاطرنشان کرد :

حقیقتا ۵ تا ۱۰ سال ارتفاع می کشد تا FDA دارویی را ثبت نماید .

هر چند به امداد سیستم‌های فرا گرفتن اتومبیل , محققان حوزه‌ی زیست‌پزشکی می توانند اصولا مرحله‌ی امتحان و اشتباه را خلاصه نمایند . دانشمندان به‌جای این‌که به‌طور مداوم درمان‌های احتمالی را به‌صورت دستی آزمون نمایند , می توانند از سیستم هوش تصنعی و مصنوعی به کار گیری نمایند تا مولکول‌ها و ترکیبات جانور در یک مقر بزرگ داده را کاوش کرده و آن ها را براساس احتمال اثربخشی تروتمیز نماید . جاشوا اسوامیداس , کارشناس بیولوژی محاسباتی در دانشکده واشنگتن در سال ۲۰۱۹ در گفتمان با The Scientist گفته بود :

بخش اعظمی از سوالاتی که پیش‌رو تیم‌های توسعه‌ی دارو است , دیگر از آن مدل سوالاتی نیست که مردمان فکر‌میکنند بتوان ازطریق آراسته کردن داده‌ها در ذهن خویش , جواب آن را پیدا نمایند . به‌منظور جستجوی داده‌ها و جواب دادن به سوال ها و کسب نگرش درباره‌ی چگونگی انجام امور , می بایست از روشی سیستماتیک استفاده نمود .


داروی تربینافین را درنظر بگیرید . تربینافین یک داروی ضدقارچ خوراکی است که برای معالجه برفک در سال ۱۹۹۶ با اسم تجاری لامیفیل وارد بازار شد . طی زمان سه سال , چند نفر گزارش کردند که در اثر مصرف دارو مبتلا دلایل جانبی شده‌اند و تا سال ۲۰۰۸ سه نفر به‌خاطر مسمومیت کبدی از جهان رفته و ۷۰ نفر هم مریض شده بودند . پزشکان متوجه شدند که یک کدام از متابولیت‌های تربینافین ( TBF – A ) علت زخم کبدی بوده است ولی در آن زمان متوجه نشدند که متابولیت مذکور چه‌گونه در تن ساخت میشود . بدین ترتیب , این مسیر متابولیکی به‌مدت یک ده سال برای جامعه طبی کماکان یک معما بود تا این که در سال ۲۰۱۸ , نالی‌دانگ از دانش کده واشنگتن یک سیستم هوش تصنعی و مصنوعی را درزمینه‌ی مسیرهای متابولیکی فراگیری اعطا کرد تا اتومبیل بتواند مسیرهای احتمالی را که در آن کبد میتواند تربینافین را به TBF – A بشکند , پیدا نماید . ظاهرا تولید متابولیت سمی یک روند دو مرحله‌ای بوده که تشخیص تجربی یکی‌از فرایند آن زیاد طاقت فرسا است البته امکان تشخیص الگوی هوش تصنعی به سادگی آن را پیدا می نماید . طی ۵۰ سال پیشین , بیش تر از ۴۵۰ دارو از بازار بیرون شده‌اند که علت آن در بیشتر موردها , مسمومیت کبدی بوده است .

در همین راستا اداره طعام و دارو وبسایتی به عنوان Tox21 . gov داراست که یک مقر داده آنلاین متشکل از مولکول‌ها و سمیت نسبی آن ها دربرابر پروتئین‌های متعدد انسانی است . محققان امیدوارند با یادگرفتن یک سیستم هوش تصنعی و مصنوعی با استعمال از این شرکت داده‌ها , بتوانند سریع‌تر این قضیه را معلوم نمایند که آیا یک معالجه بالقوه میتواند موجب پیدایش دلایل جانبی شود . سام مایکل , مدیریت ارشد فناوری داده ها راس ملی Advancing Translational Sciences که به تولید این مقر داده امداد نموده است , بیان کرد :

ما در قبلی با یک بحران مهم رو‌به‌رو بوده‌ایم : آیا می‌توان سمیت ترکیبات را از پیشین پیش‌بینی کرد؟ این دقیقا برعکس کاری است که ما در غربال‌گری یک مولکول کوچک برای داروسازی انجام می دهیم . ما نمی خواهیم یک انگیزه دارویی بیابیم بلکه می خواهیم احتمال سمی بودن ترکیبات را مشخص و معلوم کنیم .

سیستم‌های هوش تصنعی میتوانند به پباده سازی واکسن بهتری برای بیماری‌هایی مثل آنفلوانزا هم یاری نمایند . در سال ۲۰۱۹ , محققان دانش گاه فلیندرز استرالیا از هوش تصنعی برای تقویت یک واکسن آنفلوانزای معمولی به کارگیری کردند که تن هنگام مواجهه با آن غلظت‌های بالاتری از آنتی‌بادی‌ها ایجاد نماید .


ولی ازنظر فنی این مدل نیست که فارغ از دخالت دانشمندان , هوش تصنعی و مصنوعی به‌خودی‌خود یک واکسن را از نخستین تا انتها پباده سازی نماید . دانشمندان سرگرم پژوهش یادشده , ذیل ساماندهی نیکولای پترووسکی , مدرس طبابت کالج فلیندرز , نخستین الگوریتمی به اسم AI Sam ( الگوریتم جستجوی لیگاندها ) ساختند . این الگوریتم با انگیزه تمایز در بین مولکول‌هایی که دربرابر آنفلوانزا مفید میباشند , از مولکول‌هایی که اثری ندارند , یادگرفتن داده شد . به‌دنبال , برنامه‌ی دومین برای ساخت تریلیون‌ها مخلوط شیمیایی فراگیری رویت کرد و داده‌های نتایج از آن با به کار گیری از الگوریتم نخستین ( AI Sam ) مورد تجزیه‌و‌تحلیل قرار گرفت . در‌این تراز , الگوریتم بایستی معلوم می کرد که آیا ترکیبات پیشنهادی دربرابر آنفلوانزا تاثیری دارا هستند یا این که خیر . بدین ترتیب , ترکیبات برتر تعیین شدند و دانشمندان آنان‌را در آزمایشگاه ساختند . بعداز آن , آزمایش‌های حیوانی انجام شد و نتیجه ها نشان اعطا کرد که واکسن تقویت‌شده نسبت‌به واکسن گذشته که چنین فرایندی را نگذرانده بود , موثرتر است .

با آغاز سال نو میلادی , کارآزمایی‌های انسانی مقدماتی در مرز و بوم ایالات متحده استارت شد و توقع میرود که دست‌کم تا ۱۲ ماه ادامه داشته باشد . در حالتی که پروسه تایید واکسن با مشکلی مواجه نشود , واکسن تقویت‌شده می تواند طی دو سه سال دردست عموم قرار گیرد . این دوران زمان برای واکسنی که توسعه‌ی آن دو سال زمان برده است ( نسبت‌به وضعیت معمول که ۵ تا ۱۰ سال ارتفاع می کشد ) , بد نیست .


درحالی‌که سیستم‌های یاد گرفتن خودرو میتوانند تیم داده‌های عظیم را فراوان سریع‌تر از محققان بیولوژی مورد کاوش قرار داده و برآوردهای دقیق‌تری مهیا نمایند و هم ارتباطات دقیق فی مابین اجزا را درنظر بگیرند , در آینده‌ی نزدیک هم انسان‌ها کماکان در حلقه‌ی توسعه‌ی دارو حضور خواهد داشت . یک عامل آن است که چه کسی میخواهد تمام داده‌های آموزشی موردنیاز برای فراگیری سیستم هوش تصنعی و مصنوعی را جمع‌آوری , ادغام , سازماندهی , فهرست‌بندی و برچسب‌گذاری کند؟

چه بسا وقتی که سیستم‌های یاد گرفتن خودرو کارآمدتر می شوند , در شرایطی‌که از داده‌های اریب یا این که ناقص استعمال شود , صحیح نظیر دیگر سیستم‌های هوش تصنعی , حاصل بهینه‌ای نتیجه ها نخواهد شد . پزشک معالج چارلز فیشر , بنیان‌گذار و مدیرعامل Unlearn . AI در ماه نوامبر نوشت :

بخش اعظمی از گروه داده‌هایی که در طبابت مورد به کارگیری قرار می گیرد , عمدتا مرتبط با جامعه ها سفیدپوست اروپا و آمریکای شمالی است . در شرایطی‌که پژوهشگری فرا گرفتن اتومبیل را درمورد یک کدام از این موسسه داده‌ها به فعالیت چیره شود و یک نشانگر زیستی را برای پیش‌بینی جواب به معالجه خاصی کشف نماید , هیچ تضمینی نیست که آن نشانگر در جمعیت‌های گوناگون هم به عمل آید .

فیشر سفارش مینماید که برای رویا رویی با تاثیر اریب داده‌ها روی نتیجه ها از تیم داده‌های بزرگ‌تر , نرم‌افزارهای پیشرفته‌تر و کامپیوترهای قدرتمندتر استعمال شود . جیل بکر , مدیریت دلیل کمپانی Kebotix هم در این مورد چنین توضیح داده است که یکی دیگر از اجزای حیاتی , «داده‌های پاک» است . این استارتاپ برای پباده سازی و توسعه‌ی مواد کم یاب و شیمیایی , از هوش تصنعی درکنار رباتیک به کارگیری می نماید . بکر توضیح اعطا کرد :

ما سه منشا داده داریم . میتوانیم داده‌های خویش را ایجاد کنیم . . . به عنوان مثال هنگام محاسبات نیمه‌تجربی , همینطور آزمایشگاه‌هایی را برای ساخت داده‌ها داریم و درکنار این‌ها , داده‌های فرنگی هم وجود دارا‌هستند . داده‌های فرنگی قادر است از مجلات گشوده ( دسترسی آزاد ) یا این که اشتراکی و هم از ثبت اختراعات و شرکت‌های پژوهشی نتایج شود ولی صرف‌نظر از منشاء , ما زمان متعددی را صرف پاک‌سازی داده‌ها میکنیم .

مایکل هم دراین مورد خاطرنشان کرد :

درمورد این مدل‌ها , اطمینان از این‌که داده‌ها از فراداده‌های قابل قبولی برخوردار می باشند , مضاعف دارای اهمیت است ( فراداده : گروهی از داده‌ها که ویژگی‌های داده‌های دیگر را تعریف مینمایند ) . این مسائل به‌خودی‌خود رخداد نمی‌افتد و می بایست برای آن عملکرد فرمائید . این فعالیت طاقت فرسا است چون گران و زمان‌بر است .

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *