اصطلاحات فنی رایج در حوزه هوش مصنوعی
به گزارش صدای اول، هوش مصنوعی یک جهان عمیق و پیچیده است. دانشمندانی که در این زمینه کار میکنند، اغلب برای توضیح دادن کار خود به اصطلاحات تخصصی و زبانهای حرفهای متکی هستند. در نتیجه، اغلب از این اصطلاحات فنی برای صحبت کردن درباره هوش مصنوعی استفاده میشود. به همین دلیل، داشتن یک واژهنامه با تعریف برخی از مهمترین واژهها و عبارتها که در مقالههای هوش مصنوعی استفاده میشوند، سودمند خواهد بود.
به نقل از تک کرانچ، این واژهنامه باید دائما بهروزرسانی شود تا مطالب جدیدی را در بر بگیرد زیرا پژوهشگران همیشه روشهای جدیدی را برای پیشبرد مرزهای هوش مصنوعی کشف میکنند و در عین حال، خطرات ایمنی این فناوری نوظهور را شناسایی میکنند.
هوش مصنوعی جامع
«هوش مصنوعی جامع»(AGI) یک اصطلاح مبهم است اما عموماً به نوعی هوش مصنوعی اشاره دارد که در بسیاری از وظایف – اگر نگوییم بیشتر آنها – از یک انسان معمولی توانمندتر است.
«سم آلتمن»(Sam Altman) مدیرعامل شرکت «اوپنایآی»(OpenAI) اخیراً هوش مصنوعی جامع را به عنوان «معادل یک انسان متوسط که میتوانید به عنوان همکار استخدام کنید» توصیف کرد. منشور اوپنایآی نیز هوش مصنوعی جامع را به عنوان «سیستمهای بسیار خودمختاری که در ارزشمندترین کارهای اقتصادی از انسانها بهتر عمل میکنند» تعریف میکند.
درک شرکت «دیپمایند»(DeepMind) زیرمجموعه گوگل کمی با این دو تعریف متفاوت است. دیپمایند، هوش مصنوعی جامع را به عنوان «هوش مصنوعی که در بیشتر وظایف شناختی حداقل به اندازه انسانها توانمند است» میبیند. اگر گیج شدهاید، نگران نباشید زیرا متخصصانی که در خط مقدم پژوهش هوش مصنوعی هستند نیز همین احساس را دارند.
عامل هوش مصنوعی
«عامل هوش مصنوعی»(AI agent) به سیستمی اشاره دارد که از فناوریهای هوش مصنوعی برای انجام دادن مجموعهای از وظایف از طرف کابر استفاده میکند و کار آن فراتر از کارهایی مانند ثبت هزینهها، رزرو بلیط یا میز در رستوران یا حتی نوشتن و نگهداری کد است که یک چتبات هوش مصنوعی سادهتر میتواند انجام دهد. با وجود این، بخشهای متحرک زیادی در این فضای نوظهور وجود دارد. بنابراین، عامل هوش مصنوعی ممکن است برای افراد گوناگون معانی متفاوتی داشته باشد. زیرساختها نیز هنوز در حال ساخت هستند تا قابلیتهای پیشبینیشده خود را ارائه دهند اما مفهوم اساسی به معنای یک سیستم خودمختار است که امکان دارد از چندین سیستم هوش مصنوعی برای انجام دادن وظایف چندمرحلهای استفاده کند.
زنجیره فکر
مغز انسان میتواند بدون زیاد فکر کردن، به یک پرسش ساده مانند «کدام حیوان قد بلندتر است؛ زرافه یا گربه؟» پاسخ دهد اما در بسیاری از موارد، اغلب برای رسیدن به پاسخ درست به یک قلم و کاغذ نیاز دارید زیرا مراحل واسطهای وجود دارد. به عنوان مثال، اگر یک کشاورز تعدادی مرغ و گاو دارد و آنها در مجموع ۴۰ سر و ۱۲۰ پا دارند، ممکن است لازم باشد یک معادله ساده بنویسید تا به پاسخ ۲۰ مرغ و ۲۰ گاو برسید.
در زمینه هوش مصنوعی، استدلال زنجیرهای برای مدلهای زبانی بزرگ به معنای تجزیه یک مسئله به مراحل کوچکتر و میانی برای بهبود کیفیت نتیجه نهایی است. معمولا رسیدن به پاسخ، زمان بیشتری میبرد اما احتمال صحیح بودن پاسخ به ویژه در زمینه منطق یا کدنویسی بیشتر است. مدلهای استدلالی از مدلهای زبانی بزرگ سنتی توسعه یافتهاند و به لطف یادگیری تقویتی، برای «زنجیره فکر»(Chain of thought) بهینه شدهاند.
یادگیری عمیق
«یادگیری عمیق»(Deep learning) زیرمجموعهای از یادگیری ماشینی خودبهبودگر است که در آن الگوریتمهای هوش مصنوعی با ساختار چندلایه «شبکه عصبی مصنوعی»(ANN) طراحی شدهاند. این ویژگی به آنها امکان میدهد تا در مقایسه با سیستمهای سادهتر مبتنی بر یادگیری ماشینی مانند مدلهای خطی یا درختهای تصمیمگیری، همبستگیهای پیچیدهتری را ایجاد کنند. ساختار الگوریتمهای یادگیری عمیق از مسیرهای بههمپیوسته نورونها در مغز انسان الهام میگیرد.
مدلهای هوش مصنوعی یادگیری عمیق قادر هستند خودشان ویژگیهای مهم دادهها را شناسایی کنند، به جای این که به مهندسان انسان برای تعریف کردن این ویژگیها نیاز داشته باشند. همچنین، این ساختار از الگوریتمهایی پشتیبانی میکند که میتوانند از خطاها درس بگیرند و از طریق فرآیند تکرار و تنظیم، خروجیهای خود را بهبود ببخشند. با وجود این، سیستمهای یادگیری عمیق برای دستیابی به نتایج خوب به تعداد زیادی داده – میلیونها داده یا بیشتر – نیاز دارند. همچنین، آموزش سیستمهای یادگیری عمیق معمولاً در مقایسه با الگوریتمهای سادهتر یادگیری ماشینی، زمان بیشتری میبرد و به همین دلیل، هزینههای توسعه آنها معمولاً بیشتر است.
انتشار
«انتشار»(Diffusion) نوعی فناوری است که در قلب بسیاری از مدلهای هوش مصنوعی تولید متن، هنر و موسیقی قرار دارد. سیستمهای انتشار با الهام از فیزیک، ساختار دادهها مانند عکس، موسیقی و مواردی از این دست را با افزودن نویز به آرامی تخریب میکنند تا زمانی که چیزی باقی نماند. انتشار در فیزیک، خودبهخودی و برگشتناپذیر است. شکر پخششده در قهوه را نمیتوان به شکل مکعب بازگرداند اما سیستمهای انتشار در هوش مصنوعی با هدف یادگیری نوعی فرآیند انتشار معکوس برای بازیابی دادههای تخریبشده و به دست آوردن توانایی بازیابی دادهها از نویز طراحی شدهاند.
تقطیر
«تقطیر»(Distillation) روشی است که برای استخراج دانش از یک مدل بزرگ هوش مصنوعی با مدل «آموزگار-دانشآموز» استفاده میشود. توسعهدهندگان، درخواستهایی را به مدل آموزگار میفرستند و خروجیها را ثبت میکنند. پاسخها گاهی اوقات با یک مجموعه داده مقایسه میشوند تا میزان دقت آنها مورد بررسی قرار بگیرد. سپس، از این خروجیها برای آموزش مدل دانشآموز استفاده میشود که برای نزدیک شدن به رفتار آموزگار آموزش دیده است.
از تقطیر میتوان برای ایجاد یک مدل کوچکتر و کارآمدتر براساس یک مدل بزرگتر با حداقل اتلاف استفاده کرد. احتمالاً به همین دلیل است که اوپنایآی مدل «GPT-4 Turbo» – نسخه سریعتر GPT-4 – را توسعه داده است.
اگرچه همه شرکتهای هوش مصنوعی از تقطیر داخلی استفاده میکنند اما ممکن است برخی از شرکتهای هوش مصنوعی نیز از تقطیر داخلی آنها برای رسیدن به مدلهای پیشرو استفاده کرده باشند. تقطیر از یک رقیب معمولا شرایط خدمات API هوش مصنوعی و چتباتها را نقض میکند.
تنظیم دقیق
«تنظیم دقیق»(Fine-tuning) به آموزش بیشتر یک مدل هوش مصنوعی برای تنظیم عملکرد یک کار یا حوزه ویژهتر از چیزی که پیشتر نقطه کانونی آموزش آن بود، اشاره دارد و معمولاً با تغذیه دادههای جدید و تخصصی یعنی وظیفهمحور صورت میگیرد.
بسیاری از استارتآپهای هوش مصنوعی، مدلهای زبانی بزرگ را به عنوان نقطه آغاز برای ساخت یک محصول تجاری در نظر میگیرند اما در عین حال به منظور افزایش کاربردپذیری آن برای یک بخش یا وظیفه مورد نظر، با تکمیل چرخههای آموزشی پیشین و تنظیم دقیق براساس دانش و تخصص خاص خود در آن حوزه رقابت میکنند.
شبکه زایای دشمنگونه
«شبکه زایای دشمنگونه»(GAN) نوعی چارچوب یادگیری ماشینی است که زیربنای برخی از پیشرفتهای مهم در حوزه هوش مصنوعی مولد برای تولید دادههای واقعگرایانه به شمار میرود. شبکههای زایای دشمنگونه شامل استفاده از دو شبکه عصبی هستند که یکی از آنها با استفاده از دادههای آموزشی خود، خروجی تولید میکند و این خروجی برای ارزیابی به شبکه دیگر منتقل میشود. شبکه دوم، تفکیککننده است. به این معنا که نقش یک مدل طبقهبندیکننده را در خروجی مولد ایفا میکند و آن را قادر میسازد تا به مرور زمان بهبود یابد.
ساختار شبکه زایای دشمنگونه به صورت یک رقابت تنظیم شده است و در آن دو شبکه طوری برنامهریزی شدهاند که تلاش کنند از یکدیگر پیشی بگیرند. شبکه مولد سعی دارد خروجی خود را از شبکه تفکیککننده بگذراند؛ در حالی که شبکه تفکیککننده در تلاش است تا دادههای مصنوعی را تشخیص دهد. این رقابت ساختاریافته میتواند خروجیهای هوش مصنوعی را بدون نیاز به مداخله اضافی انسان، واقعیتر کند. شبکههای زایای دشمنگونه برای کاربردهای محدودتر مانند تولید عکسها یا ویدیوهای واقعگرایانه بهتر از هوش مصنوعی با هدف کلی عمل میکنند.
توهم
«توهم»(Hallucination) اصطلاح ترجیحی حوزه هوش مصنوعی برای مدلهایی است که چیزهایی را از خودشان در میآورند و به معنای واقعی کلمه، اطلاعاتی را تولید میکنند که نادرست هستند. بدیهی است که این یک مشکل بزرگ برای کیفیت هوش مصنوعی به شمار میرود.
توهمات، خروجیهای هوش مصنوعی مولد را تولید میکنند که میتوانند گمراهکننده باشند و حتی خطراتی را در زندگی واقعی به همراه بیاورند که پیامدهای خطرناکی دارند. برای مثال، به یک پرسش سلامت فکر کنید که توصیههای پزشکی مضری در پاسخ به آن ارائه میشوند. به همین دلیل است که اکنون در نوشتههای کوچک بیشتر سیستمهای هوش مصنوعی مولد به کاربران هشدار داده میشود که پاسخهای تولیدشده توسط هوش مصنوعی را تأیید کنند.؛اگرچه چنین مواردی از سلب مسئولیت معمولاً بسیار کماهمیتتر از اطلاعاتی هستند که با لمس یک دکمه ارائه میشوند.
استنتاج
«استنتاج»(Inference) فرآیند اجرای یک مدل هوش مصنوعی است. این فرآیند، مدل را برای پیشبینی یا نتیجهگیری از دادههای پیشتر دیدهشده آزاد میکند. استنتاج نمیتواند بدون آموزش رخ دهد. یک مدل باید الگوهای موجود در مجموعهای از دادهها را یاد بگیرد تا بتواند به طور مؤثر از این دادههای آموزشی برونیابی کند.
انواع گوناگونی از سختافزارها میتوانند استنتاج را انجام دهند؛ از پردازندههای تلفن همراه هوشمند گرفته تا پردازندههای گرافیکی قوی و شتابدهندههای سفارشی هوش مصنوعی اما همه آنها نمیتوانند مدلها را به یک اندازه خوب اجرا کنند. مدلهای بسیار بزرگ به زمان زیادی برای پیشبینی نیاز دارند. برای مثال، مدل اجراشده روی لپتاپ در مقایسه با یک سرور فضای ابری با تراشههای هوش مصنوعی پیشرفته، بیشتر زمان میخواهد.
مدل زبانی بزرگ
«مدلهای زبانی بزرگ»(LLMs) مدلهای هوش مصنوعی هستند که توسط دستیاران محبوب هوش مصنوعی مانند «چتجیپیتی»(ChatGPT) شرکت اوپنایآی، «کلود»(Claude) شرکت «آنتروپیک»(Anthropic)، «جمینای»(Gemini) گوگل، «لاما»(Llama) شرکت «متا»(Meta)، کوپایلوت»(Copilot) شرکت مایکروسافت یا «Le Chat» شرکت «میسترال ایآی»(Mistral AI) استفاده میشوند. وقتی با یک دستیار هوش مصنوعی چت میکنید، با یک مدل زبانی بزرگ تعامل دارید که درخواست شما را مستقیماً یا با کمک تجهیزات گوناگون موجود مانند مرورگرهای وب یا مفسرهای کد پردازش میکند.
دستیاران هوش مصنوعی و مدلهای زبانی بزرگ میتوانند نامهای متفاوتی داشته باشند. برای مثال، «جیپیتی»(GPT) مدل زبانی بزرگ اوپنایآی و چتجیپیتی محصول دستیار هوش مصنوعی آن است.
مدلهای زبانی بزرگ، شبکههای عصبی عمیقی هستند که از میلیاردها پارامتر عددی ساخته شدهاند و روابط بین واژهها و عبارتها را یاد میگیرند و نمایشی را از زبان و نوعی نقشه چندبعدی از واژهها ایجاد میکنند.
شبکه عصبی
یک «شبکه عصبی»(neural network) به ساختار الگوریتمی چندلایهای اشاره دارد که زیربنای یادگیری عمیق به شمار میرود و به طور گستردهتر، رونق محصولات هوش مصنوعی مولد پس از ظهور مدلهای زبانی بزرگ است.
اگرچه ایده الهام گرفتن از مسیرهای بههمپیوسته مغز انسان به عنوان یک ساختار طراحی برای الگوریتمهای پردازش داده به دهه ۱۹۴۰ میلادی بازمیگردد اما ظهور سختافزار بسیار جدیدتر «واحدهای پردازش گرافیکی»(GPU)، قدرت واقعی این نظریه را آشکار کرد. این تراشهها برای آموزش الگوریتمهایی با لایههای بسیار بیشتر از آنچه در دورههای پیشین ممکن بود، بسیار مناسب بودند و سیستمهای هوش مصنوعی مبتنی بر شبکه عصبی را قادر ساختند تا در بسیاری از حوزهها از جمله تشخیص صدا، مسیریابی خودکار و کشف دارو به عملکرد بسیار بهتری دست یابند.
آموزش
توسعه هوش مصنوعی مخصوص یادگیری ماشینی شامل فرآیندی است که به عنوان آموزش شناخته میشود. به عبارت ساده، به دادههایی اشاره دارد که به مدل داده میشوند تا بتواند از الگوها یاد بگیرد و خروجیهای سودمند را تولید کند.
در این مرحله از هوش مصنوعی، مسائل ممکن است کمی فلسفی شوند زیرا پیش از آموزش، ساختار ریاضی که به عنوان نقطه آغاز توسعه یک سیستم یادگیری استفاده میشود، فقط مجموعهای از لایهها و اعداد تصادفی است. تنها از طریق آموزش است که مدل هوش مصنوعی واقعاً شکل میگیرد. این فرآیند اساسا پاسخ سیستم به ویژگیهای موجود در دادههاست که آن را قادر میسازد تا خروجیها را با هدف مورد نظر تطبیق دهد؛ خواه این هدف شناسایی تصویر گربهها باشد و خواه تولید یک هایکو براساس تقاضا.
یادگیری انتقالی
«یادگیری انتقالی»(Transfer learning) روشی است که در آن از یک مدل هوش مصنوعی پیشتر آموزشدیده، به عنوان نقطه آغاز توسعه یک مدل جدید برای یک کار متفاوت اما معمولا مرتبط استفاده میشود که امکان استفاده مجدد از دانش بهدستآمده در چرخههای آموزش پیشین را فراهم میکند.
یادگیری انتقالی میتواند با ایجاد میانبر در توسعه مدل، به صرفهجویی کمک کند. همچنین، این روش زمانی میتواند سودمند باشد که دادهها تا حدودی به وظیفه مورد نظر مدل محدود باشند اما توجه به این نکته مهم است که این روش با محدودیتهایی همراه است. مدلهایی که برای دستیابی به قابلیتهای عمومی به یادگیری انتقالی متکی هستند، احتمالاً برای عملکرد خوب در حوزه تمرکز خود به آموزش با دادههای اضافی نیاز دارند.
ارسال دیدگاه
مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0