File size: 28,606 Bytes
d48d4f3
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
خوب حل بکنه و شبکه برت تی فایو و ممکنه جی تی آی ورژن پایین تر یا لاماهای مثلاً ورژن حتی شبکه‌هایی هستند که چیزشون موجوده‌ها وزن‌هاشون همه جا موجوده در اختیارتون قرار داده میشه فکر نمی‌کنم ۳ و نیم به بعد قطعا نمیدن بهتون جایی خودشونه سر رو نمیدونم ولی لاما کلا بعضی هاش آزاده شما قدرت حافظه داشته باشید میتونید هم دانلود کنید مدل چند صد میلیون پارامتر داره که اینا رو بهتون حالا آقای چیز احتمالا میان مثالی که براتون حل میکنم آقای سهرابی‌پور براتون خب عرض به حضور شما اینم باز تاریخچه زمانیشونه که از

۴ ماه اول سال ۴ ماه دوم چهار ماهه سومش مثلاً چه شبکه‌هایی اومدن و هی رفته جلو تازه این تا انتهای ۲۰۲۳ هست ۲۴ جزش نیست جاهایی که می‌بینید یه چیزی زرده دورش یعنی پابلیک پابلیک کامل موجوده می‌تونید دانلود اینجا میتونید ببینید که متاد بیرون اومد دیگه درسته و همینطور gpt که الان دیگه به فور رسیده و هی داره میره جلو جلوتر و خیلیی‌ها هستن که دارن مدل‌های جدید این مدلی میدن بیرون و می‌تونید ازش استفاده ۷ میلیارد پارامتر دانلود می‌کنید دیگه اگه دلتون میخواد برید لایه آخرشو بندازید دور لایه آخر خودتون

خوانی داره کار میکنه خب یکی از کارهایی که باید بکنه مثلاً بچه‌ها نارسا خان مثلاً باید بتونن فرض کنید که حرف های آخر این چهار تا کلمه‌ای که بهشون میگم با هم بچسبونن یه کلمه بسازم مثلاً ما اینو به مدل های زبانی که میدادیم با وجود که واقعاً ببخشید هیچ دیوونه نبوده قبلش این مدل زبانی کنه این میفهمید تقریبا حل میکرد دیگه دقیقش کنیم چیکار میتونیم بکنیم یه هزار تا مثال اینجوری آماده بکنیم براش با روش‌هایی که بهتون میگم به جای ۷ میلیارد پارامتر مثلاً ۷۰۰ هزار تاشو عوض میکنیم و میبینیم این تسک رو دقیق آماده آماده خوب انجام میده ممکنه البته یه سری تسک های دیگش ممکنه یه کوچولو خراب‌تر بشه ولی برای ما مهمه چون تسک من الان مهم اینه که این کار برام خوب انجام بده دیگه خب بهتون میگم الان بهش میرسیم که این ۷۰۰ اگه مثلاً توی ۷ میلیارد تا

امروز برسیم بخش اول تمام کنیم بخش جلسه بعدیمون کلاً توی فضای تخیلی کاربرد یعنی چیزه هیجان انگیز از اونایی که میشنوید یه مقدار اول پیدا می‌کنید که ما چرا این کارا رو نمی‌تونیم بکنیم ولی از اونور هیجان هم داره که چه کارهایی میشه با تلفیق و صوت و اینا انجام داد یعنی بپردازم بخاطر همین سرعت گرفتم بچه‌ها یک مفهومی که شبکه‌های در واقع زبانی کلا هر شبکه میشه ازش انتظار داشت شبکه‌های خیلی قوی مفهومی به نام فیو شات لرنینگ خب فیوچات لرنینگ حرفش چیه حرفش اینه که آیا میشه با تعداد کمی نمونه نشون دادن به یک مدل بعد یه تکی ازش سوال بپرسید بتونه جوابتونو بده یا نه مثلاً تو حوزه ایمیج میتونه چی باشه فرض کنید که

زبان ایرانی چینی هندی اینا ترین شده یه مثلاً فرض کنید روستایی توی آفریقای جنوبی پیدا میشه که یه زبان دیگه‌ای برای خودش داره خب و یه عدد نماد دیگه‌ای داره مثلاً برای اعداد یک تا نوش هیچ چیز دیگه‌ای استفاده می‌کنه چهار تا دونه عدد یک اینو دارید چهار تا دونه بعد می‌خواید بگید که من این چهار تا رو بهش نشون بدم آیا پنجمی بیاد این میتونه بفهمه که اون یک زبان فلان روستای فلان آفریقای جنوبی بود یا نه خب اگه این فهمید بهش میگن با چهار تا نمونه نشون دادن از اون موفق شد چیکار کنه این کارو بکنه یه قابلیتی که ال ام ها دارند و فوق عجیب بود برای آدم ها مثل همین عرض کردم مثال همین مجتبی شهاب که ما می‌دادیم می‌گفتیم ما کلمه انتهای کلمات بهش بچسبون به اون خروجی میداد و درست میداد خب زیرو شات لرنینگه بدون اینکه هیچی شما قبلا تو این حوزه بهش ترینینگ داده باشید

کلاسیفیکیشن فرض کنید که من یه سری حیوون دادم که کلاسیفایی برام بکنه توی ترینینگ ست هم عکس زرافه رو هیچ وقت بهش ندادم ولی تو کلاسیفیکیشنش تو لایه در نظر گرفتم یا نامردی کردید یا عمدا نشون ندادید حالا این چجوری بازی رو شات بفهمه مبنای از لحاظ مبنایی کی میتونه اینو متوجه بشه هیچ زرافه ندیده بعد یه عکس زرافه بیاد این بتونه بگه زرافه است کی ممکنه این اتفاق بتونه رخ بده بقیه رو داره نه یک برای زیرو شات شما یک اینفورمیشن یا اطلاعات اضافی باید بهش داده

زرافه شتر گاو پلنگ است حیوانی است که از یک بر شبیه شتر است از یک بر شبیه همچین جمله داده باشه یه توصیف متنی ولی یک دونه زرافه بهش نشون ندادیم یا مثلاً گورخر بگید و این انتظار داشته باشید که راه راه بودن و یه جایی پیدا کرده باشه چون از چیزای دیگه شبکه ترین شده باشه اسپ هم یه جای دیگه پیدا کرده باشه این دوتا رو تهیه هم ببینه زیر شات لرنینگ به شما بگه چی این گورخر خب ها به ستون سمت راست نگاه کنید گفته ترنس انگلیش تو فرنچ دو نقطه چیز اینتر زده خب به یه شبکه چیز لارج مدل مثل جیpt این زیر شاید هیچی این فقط یه جمله یه جمله فقط کمکش کرده گفته ترن انگلیش امیدواره که این جی پی مفهوم اینو بفهمید و بعد گفته چی بفهمه که اینم تازه باید برگرده اگه میخواست ل

دو نقطه یه کلمه‌ای داده جلوش معادل فرانسه نوشته دوباره یک کلمه انگلیسی داده معادل فرانسه دوباره یکی دیگه داره انگلیسی شات لرنینگه سه تا نمونه به انگلیسی از انگلیسی به فرنچ برام ترجمه کن درسته حالا اگر شما از شبکه‌تون انتظار داشته باشید با همین شات جواب بده بهتون خب بهش میگن مفهوم این کانتکس لرنینگ اصلاً شما به شبکه دست نمی‌زنید انجام میدید الان شما فقط از شبکه انتظار دارید شما خروجی بده و امیدوارید یعنی چشم امیدتون به اینه که این بازی رو لرنینگ کار برای شما دربیاره خب اما میشه چیکار کرد میشه وزن های شبکه رو آپدیت کرد دو سر بوم من برای شما توصیف بکنم که بهتون بگم هیچ‌کدومش برای ما خوبیم وسطش یک سوم اینه که به هیچ وزن شبکه دست نزنید شبکه همین که هست با همین قابلیت شمایی که خودتو و

محدودیت‌هاش بساز چیکار کن خروجی ابزار داریم انقدر که بتونیم مثلاً ۷ میلیارد و ۱۷۵ میلیارد یا ۱۵۰۰ میلیارد پارامتر رو چیکار کنیم که منطقی هم خدمتتون گفتم میزنید ابروشو درست کنید چشمشو کور می‌کنید مثلاً میاد فقط تسک شما نهایت خوبه عمل میکنه همه چی یادش میره همه مفاهیم اینکه ما چیکار کنیم که با یک انتخاب بهینه از در واقع پارامترهای شبکه بتونیم فا کنیم برای تسک خاص خودمون مثلاً همون کاری که گفتم آقای شهاب تو ذهنش انجام بده ولی مثلاً یه مدل زبانی جلوشه فرض کنید چه برد حدود چند صد میلیون پارامتر داره و چیکار کنه که این

عادیتون همون با مفهوم گرادیان و اینا هی نمونه بهش بدید و آپدیت کنید که حالا بهتون میگم انتخاب این چیزی که باید از تست های قبلی یاد گرفته باشه کلمه ترنس یعنی چی انگلیش تو فرند یعنی چی انتظار داریم اینو یاد گرفته باشد دقیقا اگر بهش نمیگفتی دیگه منطقاً می‌ نوشت چیز اینتر میزدید نباید چیزی میداد اینو حداقل بهش بده بین اللهی ولی ولی این کانتکس لرنینگ چیزی بوده که خودشون هم هاج و واج موندن یعنی خودشون هم فکر نمی‌کردن اینقدر شبکه‌ها قوی باشن یک مفهوم یه مفهوم دیگه مفهوم ایمرجنت باز دوباره از اون

یعنی ظهور یه سری اتفاقات تو قبل از هیچ تغری نبوده بعد از اینکه دیتاشونو از یه عددی بردن بالاتر خودش ظهور پیدا کرده مثلا این به این عکس دی نگاه کنید که persian qa یه شبکه مثلا فرض کنید جی پی تی مثلا سه قبل از اینکه با تعداد داده‌های ۱۰ به توان ۲۲ تا مثلاً داده ترینش بکنن نمیتونسته جواب فارسی بده دقتش ۲۵ درصد بوده تعداد داده‌هاشونو بردن ۲۴ تا هیچ فرقی تو فرایند ترینینگ ش نبود دقت شده ۵۵ و این اتفاقات عجیب غریبی که داره ظهور میکنه تو فقط با رشد دادگاه زیاد میدن به شبکه زور شبکه میره بالا کلاً خب و این پدیده به نام ایمرجنت و این چیزی که واقعاً داره رویت میشه و الی آخر

خیلی زیادی یاد میگیره ارتباط پیدا میکنه و به چیزهایی داره میرسه که ما فکر می‌کنیم مدل سوال فارسی بهش ندادیم این رفته ارتباطات عمیق زبانی پیدا کرده یعنی مثلاً فهمیده که وقتی این مدل فارسی ترجمه کرده برای خودش این از نهاد فعل فاعل مفعول تشکیل شده بعد علامت سوال من باید اینجوری برم جوابشو بدم اینو از کجا یاد گرفته انگلیسیه از رو اون رفته دیده من اینجوری تولید کرده و خفنی به نظر میاد که هرچی دارن فقط مدل را میبرن جلوتر داره زورشم بیشتر میشه معضلی که از ته ماجرا بهش داده کم آوردن از هر چیزی داشتن خرج کردن حالا احتمال داره مثلاً نسل بعدی واقعا این باشه داده‌های خالی زیاد داره میده که ما نداریمش

ساعت‌ها آدم‌ها با همدیگه مکالمه دارند در روز ولی هیچکی از این استفاده نمی‌کنه خب باز که هست تو آموزه‌های دینی ما هست که همه اینا نگه داشته میشه قیامت لحظه به لحظه ثانیه به ثانیه چیزی که گفتی مهمه تو میگیرن خب اینو فرض کنید نصب مجوز بگیرن بیان کلی مثلاً میکروفون نصب کنن تو کل عالم داده رو بگیرن بعد دوباره می‌تونن به شبکه‌های عجیب غریب تر برسن و و و یعنی الان داده کم آورد استفاده کردن ویدیو هم داشتن استفاده کردن بعضی ها مجوز نگرفتن از کتاب های آدما از فیلم های هالیوود و و و استفاده کردن کسی اجازه نگرفته کسی شبکه ترند شده یه غولی شده الان برای خودش همه چیو می‌تونه بگه حتی زیر اشاره آره دیگه مقالات استفاده می‌کنن الی آخر و اما بریم سر اصل ماجرامون این ماجرای علمیه تنها ما

خیلی راحت‌تره و استیبل ترن توی توسعه ورت رفت ولی مثل تی فایو هم داریم که بردنشون جلو و سوال ما اینه که ما دنبال یک راه حل بینابینی هستیم نه میخویم شبکه داشته باشیم که به هیچیش نتونیم دست بزنیم که هرچی اون میگه زورش همونه که اون به ما داده نه اینکه ما بکوبیم از اول بسازیم خب مفهوم پیدا میشه به نام پارامتر افشن اگر تمام شبکه را بکوبید دوباره بسازید یعنی معماری دست نزدید ولی همه اون ۱۷۵ میلیارد پارامتر یا همه اون ۱۰۰ میلیون پارامتر دست بزنید بهش میگن اگر این اصطلاح رو جایی دیدید یعنی تمامی ها رو تغییر دادید فول

کی منطقیه که انجامش بدیم هم داده تو اشل خود اونا داشته باشیم خب بعضی وقتا ما ریسرس محاسباتی داریم داده به اون اندازه نداریم روش‌هایی هستند به نام پارامینگ از بهتر عمل میکنه مثلا شما ۱۰ ۰۰۰ تا دارید نتیجه میگیرید چرا چون داده های کم خطر زیاده تو واقعیت بد عمل میکنه ولی پارامتر بهتون می‌گیم که خیلی افشنت عمل میکن و بهینه عمل می‌کنن با یه تعداد داده خیلی خیلی خیلی کمتر تو اوردر یک تا ۵ درصده کل جاده‌های شبکه شما پایین شبیه اونه حالا سوال اینه آیا بهترین

مجهز به این روش‌های پپت شدن مجهز به پخت شدن در واقع خیلی خیلی خفن‌تر از خود حالت عادی و یه پله خفن تر از قدیمی و پیاده سازی اما چرا اصلا ما به پفت نیاز داریم چرا مسئله پارامتر افشن مهمه چرا مهمه بچه ها چرا ما باید شبکه بتونیم کنیم چون تسک‌هامون مدام عوض میشن تسک های جدید ظاهر میشن که تا دیروز اصلاً فکرشم نمی‌کردیم وجود داشته باشن عرض به حضور شما یه سری کارها لازمه که

تسک‌های ریزتر بشکونه و بره جدا جدا انجام بده اینه که چیز بکنه مثلاً میگم فرض کنید شعوری پشتش نبود یه مشت نوشته بوده این رفته یه چیزایی یاد گرفته مثلا وسط راه یاد گرفته فحش هم بده بعد شما مثلاً می‌خواید آقا یه مقدار رعایت بکن مثلاً یه همچین چیزایی باید چیز بذارید که وقتی خروجی تولید یه جایی هم مثلاً ببندی و فلان و اینا و این الاینمنت ها و تغییرات لازمه انجام بدید و کلاً ترنسفر لرنینگ کردن هم به تسک های جدید هم به مدالیتی های جدید یعنی تلفیق نوشته عکس فیلم الی آخر در کنار همدیگه سبب میشه که ما به پفت احتیاج داشته باشیم اما سوال یه عده گفتن ما بیایم چیز کنیم مثل حالت عادی ترنسفر لرنینگ از آخرین لایه بگیریم بیایم عقب مثلاً یه شبکه برتو بگیریم اول فقط لایه آخرشو

خودش حدود ۱۰ به توان ۸۰ خب بعد مثلاً ۱۰ به توان شش تاشو که تیون میکردن میدید نسبت به پولی فا ۱۰ درصد پایین تر خب ولی بد نبود ها مثلا شبکه فقط لایه چند تا لایه آخر که حدود یک میلیون تا پارامتر بوده فقط ریتیون می‌کردن ۹۰ درصد دقت رو می‌رسیدن بعد آوردن ۱۰ به توان هفت تاش کردن دیدن اومدن بالاتر ولی دیدن زمانی که بخوان به دقت کولیفای برسن باید چیکار کنن تو اردر ۱۰ به توان هشت تا باید پارامتر

با حدود ۱۰ به توان ۵ تا پارامتر کردن به همون دقت و یک سوال مطرح شد که چیکار میکنه آیا ما لازمه که از لایه آخر بیاریم عقب یا میشه حقه‌های دیگه‌ای زد و کارهای دیگه‌ای کرد همین قدر بدونید که پس روش‌های در واقع ترنسفر لزوما بهینه ترین نیستند اما دنبال پارامتر افشنت متدها هستیم در یک نگاه بچه ها اون سه تا چیزی که می‌خوام خدمتتون بگم اینجا براتون آوردیم سه تا روش پت می‌خوایم بهتون بگیم که اینا می‌تونن تکی استفاده شن و می‌تونن هر سه تاشون با همدیگه استفاده شن و هر کدومشون در عین اینکه تعداد پارامترهای کمی از شبکه رو میکن دقت قابل ملاحظه‌ای میارن بالا یک روش اسمش هست ادپتر که

شبکه‌های چیز عادی ترانسفورمر عادی بعد از اینکه اتنشن و فیت فوروارد نتورک داشتیم یادتون بود میرفت با خودش جمع میشد و بعد از نتورک‌ها می‌گذشت یه سری باکس های قرمز رنگی اینجاهایی که من بهت میگم اضافه کن خب یکی بعد فوروارد نتورک ها اضافه کن حالا تو ورژن اولیش بعد اضافه کرده بعدش دیدن که حتی اینم بردارم اون بالایی رو فقط بزارم خوبه بهتون میگم چیه یه روشی داریم به نام سافت خب که تو ورودی تغییرات به وجود میاره من این سوال ازتون بپرسم به زیرو لرنینگ فرض کنید به چیز به مثلاً یه ال می‌ید ترنس انگلیسی دو نقطه چیز اینترزنید یک کلمه آیا امکان شما میتونستید عوض بکنید که باز هم این کارو بکنه آره مثلاً پلیز

کاملا ممکنه تغییر بکنه یه عده‌ای دستی اومدن روی این کار کردن چه پرامتی بدیم دقت تسکمون میره بالاتر یعنی ایده دادن که من مثلاً چند تا جمله پیشنهاد بدم یا الگوهایی پیشنهاد دادن که اگه این کارو بکنیم دقت شبکه‌های عمیق همیشه دنبال کنن همه چیو کاری کنن که حتی این هم در بیاد توی روش سافت اینجوری میکنه که میاد به ورودی چند تا توکن اضافه تر اضافه میکنه که این قرمز ترینبلن مفهومش این میشه که جمله‌ای که شما دادید چون چند تا هم اون ترین آورده انگار جمله‌تون رو تغییر داده مثلاً جمله شما واقعاً این بوده ترن دیسپ انگلیش یا فرام انگلیش تو فرنچ ولی اون با توکن های که آورده مثل این بوده که

دیده که این بهتر کار میکنه که حقه میزنه و چند تا توکن اضافه میکنه تو ورودی و مثل اینکه جمله شما را عوض میکنه یه روش که داستان عوض میکنه و هر سه تای اینا میتونه با هم حتی استفاده بشه و اینا در واقع مهمترین متد های معروف ترین و الان کلاً دارن از اینا استفاده میشه عرض به حضور شما که یه ده دقیقه استراحت بفرمایید ساعت ۱۱:۴۰ برگردید من تمام می‌کنم و آقای سهراب میگم بیاد حالا بخش اول کد شما تشریف بیارید چیز به درد بفرمایید خیلی سریع بگم سه تا روش معروف داره زدید

اولین روش بسیار کارا بود و تو اون عکس دیدید که در مقابل جزئی بسیار بسیار قوی عمل می‌کرد روش به نام اضافه کردن ماژول‌های ادپتر حرف یادتونه یه بخش در واقع چیز داشتید سل داشت فوروارد نتورک میشد میگه بیا بعد سلف اتنشن و بعد نتورک یه همچین شبکه بزار که اینجا نشون دادم خب یعنی اینجا که قبلا هیچی نبوده شما ادپتر بزار و حالا خود ادپتر چیه خود ادپتر یک شبکه دو لایه است میگه مثلاً فرض کن که توکن

بردار هزارتایی بهت رسیده اول کوچیکش کن مثلاً بکنش ۱۰ تا ۵۰ تا بعد یه مثل جلو چیزی روش بزن و دوباره برگردونه به هزار کاری که میکنید اینه حالا تو شبکه بیا اینو این ادپترها رو به تمام ماژول‌های انکودرتون اضافه کنید و سایر وزن های شبکه رو فریز کنید این دفعه دیگه برخلاف ترانسفر لرنینگ که لایه آخر یکی مونده به آخر دوتا فریز میکرد یه چیزهای فریز داره یه چیزایی چند صد میلیون پارامتر یا جی پی تی ولی آخر یا چند میلیاردشون هدفرا چی میشن یه سری تعداد پارامتر محدودی که رفتن وسط شبکه چی شدن جا شدن و شما فقط می‌خواید اینا رو تیون کنید تا اون تسک مورد نظر شما انجام خب پس یه

در ضمن ادپتر علاوه بر این شبکه فوروارد یه دونه چی هم داره اسکیپ کانکشن هم داره که قبلش بیاد و بعدش وصل کنه حالا فرض کنید یه شبکه گرفتید برای مثال زدید خوب میخوید اول شبکه فعلا کارهای قبلی خودش بتونه انجام بده شبکه با چه وزن های چیز میکنید اینشیالایز میکنید نزدیک چند نزدیک تا چه اتفاقی بیفته مثل اینکه وجود نداشته باشه یعنی فاز چیز هست فاز مستقیمش وجود نداشته باشه چه اتفاق خوبی میفته تمام تسک های قبلی یادشه حالا میگه شروع کن حالا

خرابکاری میکنه یه مثال بزنیم اگه شما یه دونه ۱۰۰ تایی داشته باشید خب بعد ببر چند تا ده داره چند تا پارامتر اضافه میکنه بایوس رو ولش کنید یه ۱۰۰ تا رفتید به ۱۰ تا این چند تا بهتون میده هزار اینجا داره ۱۰ برگرد یه ۲۰۰۰ تا پارامتر به تعداد ضربدر دو هم بکنید میشه ۴۰۰۰ تا به تعداد ماژ این کد دارید و تعداد پارامتر می‌بینید که در کل مثلا ۴۰۰ هزار تا در حالی که

تلاش میکنه خروجیش خیلی غافلگیر کننده نباشه برای ورودی بالایی یعنی ماهیت یه دلتایی به خودش میگیره اینکه نسبت به اون لحظه دستش رسیده تغییراتی هم بده جزئی که چی بشه که بعدی که داد بالای غافلگیر نشه بتونه تسک های مثلا چیزهای قبلی خودش تا حد امکان داشته باشه خب و این ماجرا سبب میشه که چون ادپترها بعضی وقتا قابلیت این دارند که ترین شد برش دارید یه جای دیگه یه روزی استفاده کنید مثلا میگم یه شبکه دارید یه تسک یک من درآوردی مثل اون

عوض میکنید چی میشه ۲۰۰ میلیون خب و کسی که یک دست انجام میدید و در ضمن ممکنه شما به درد دیگران بخوره جوری که دارن جاهایی بارگذاری بکنید که توی پیاده سازی بیخیال ش بریم جلو یه مطالعاتی هم انجام شد که دیدن حتی بعد چیز هم نیاز نیست سل پشن هم بزاری همین فقط بده نتورکی هم بزاری هم به همون کیفیت خوب کار انجام میده یه مثال ببینید از ادپترها گفته مثلاً یه بار برت لارج رو برداشتم خب

داشته باشند ۹ تا ۲۰۰ میلیون تا ترین کرده تا به دقت توتال ۸۰.۴ درصد برسه همین کار رفته با ادپتر انجام داده کلا دو درصد پارامترها از لحاظ حجم درگیر بودن به دقت ۷۹.۶ خب فقط جا داده و فقط ادپترها رو ترین کرده با دقت نزدیک به همون کاری که کرد رفته چیکار کرده کار خب عرض به حضور شما باز دوباره مثال های دیگه که تو ادپتر هست دیدن که وقتی رفتن لایه‌های آخر شبکه را ترین کردن

از مثلاً ۱۰ به توان ۷۰ با دقت ۷۸ درصد رفتم در حالی که با ادب ۵ تا پارامترم هنوز دقته بهتر از با اون تعداد داده دارند زمانی خیلی موفقه که داده‌هاشم خیلی زیاد باشه اگه داده‌هاتون کم باشه خطر داره رو ادپتر واریانت های مختلفی زده شده یه آقایی به نام فایفر توی دانمارک گروهشون خیلی توی زمینه کار کرده اومده مثلا همین پیشنهاد داده که آقا بعد چیز جا بدید بخش جا بدید در ضمن اون جایی که میرفت بای پس میشد قبل عدن نور بزارید دیگه بهتر میشه با چیز رفته با سعی و خطا دیگه اون اسکیپ کالکشن رو اگه به جای قبلش بگیرید دقت شبکه بالاتر میره فقط تنها جایی که در واقع ترین میشه این بخش بالاییه ماژول های اینکودر یا دیکودره یه بخش پایینش کامل فریز شده