Spaces:
Sleeping
Sleeping
File size: 28,606 Bytes
d48d4f3 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 |
خوب حل بکنه و شبکه برت تی فایو و ممکنه جی تی آی ورژن پایین تر یا لاماهای مثلاً ورژن حتی شبکههایی هستند که چیزشون موجودهها وزنهاشون همه جا موجوده در اختیارتون قرار داده میشه فکر نمیکنم ۳ و نیم به بعد قطعا نمیدن بهتون جایی خودشونه سر رو نمیدونم ولی لاما کلا بعضی هاش آزاده شما قدرت حافظه داشته باشید میتونید هم دانلود کنید مدل چند صد میلیون پارامتر داره که اینا رو بهتون حالا آقای چیز احتمالا میان مثالی که براتون حل میکنم آقای سهرابیپور براتون خب عرض به حضور شما اینم باز تاریخچه زمانیشونه که از ۴ ماه اول سال ۴ ماه دوم چهار ماهه سومش مثلاً چه شبکههایی اومدن و هی رفته جلو تازه این تا انتهای ۲۰۲۳ هست ۲۴ جزش نیست جاهایی که میبینید یه چیزی زرده دورش یعنی پابلیک پابلیک کامل موجوده میتونید دانلود اینجا میتونید ببینید که متاد بیرون اومد دیگه درسته و همینطور gpt که الان دیگه به فور رسیده و هی داره میره جلو جلوتر و خیلییها هستن که دارن مدلهای جدید این مدلی میدن بیرون و میتونید ازش استفاده ۷ میلیارد پارامتر دانلود میکنید دیگه اگه دلتون میخواد برید لایه آخرشو بندازید دور لایه آخر خودتون خوانی داره کار میکنه خب یکی از کارهایی که باید بکنه مثلاً بچهها نارسا خان مثلاً باید بتونن فرض کنید که حرف های آخر این چهار تا کلمهای که بهشون میگم با هم بچسبونن یه کلمه بسازم مثلاً ما اینو به مدل های زبانی که میدادیم با وجود که واقعاً ببخشید هیچ دیوونه نبوده قبلش این مدل زبانی کنه این میفهمید تقریبا حل میکرد دیگه دقیقش کنیم چیکار میتونیم بکنیم یه هزار تا مثال اینجوری آماده بکنیم براش با روشهایی که بهتون میگم به جای ۷ میلیارد پارامتر مثلاً ۷۰۰ هزار تاشو عوض میکنیم و میبینیم این تسک رو دقیق آماده آماده خوب انجام میده ممکنه البته یه سری تسک های دیگش ممکنه یه کوچولو خرابتر بشه ولی برای ما مهمه چون تسک من الان مهم اینه که این کار برام خوب انجام بده دیگه خب بهتون میگم الان بهش میرسیم که این ۷۰۰ اگه مثلاً توی ۷ میلیارد تا امروز برسیم بخش اول تمام کنیم بخش جلسه بعدیمون کلاً توی فضای تخیلی کاربرد یعنی چیزه هیجان انگیز از اونایی که میشنوید یه مقدار اول پیدا میکنید که ما چرا این کارا رو نمیتونیم بکنیم ولی از اونور هیجان هم داره که چه کارهایی میشه با تلفیق و صوت و اینا انجام داد یعنی بپردازم بخاطر همین سرعت گرفتم بچهها یک مفهومی که شبکههای در واقع زبانی کلا هر شبکه میشه ازش انتظار داشت شبکههای خیلی قوی مفهومی به نام فیو شات لرنینگ خب فیوچات لرنینگ حرفش چیه حرفش اینه که آیا میشه با تعداد کمی نمونه نشون دادن به یک مدل بعد یه تکی ازش سوال بپرسید بتونه جوابتونو بده یا نه مثلاً تو حوزه ایمیج میتونه چی باشه فرض کنید که زبان ایرانی چینی هندی اینا ترین شده یه مثلاً فرض کنید روستایی توی آفریقای جنوبی پیدا میشه که یه زبان دیگهای برای خودش داره خب و یه عدد نماد دیگهای داره مثلاً برای اعداد یک تا نوش هیچ چیز دیگهای استفاده میکنه چهار تا دونه عدد یک اینو دارید چهار تا دونه بعد میخواید بگید که من این چهار تا رو بهش نشون بدم آیا پنجمی بیاد این میتونه بفهمه که اون یک زبان فلان روستای فلان آفریقای جنوبی بود یا نه خب اگه این فهمید بهش میگن با چهار تا نمونه نشون دادن از اون موفق شد چیکار کنه این کارو بکنه یه قابلیتی که ال ام ها دارند و فوق عجیب بود برای آدم ها مثل همین عرض کردم مثال همین مجتبی شهاب که ما میدادیم میگفتیم ما کلمه انتهای کلمات بهش بچسبون به اون خروجی میداد و درست میداد خب زیرو شات لرنینگه بدون اینکه هیچی شما قبلا تو این حوزه بهش ترینینگ داده باشید کلاسیفیکیشن فرض کنید که من یه سری حیوون دادم که کلاسیفایی برام بکنه توی ترینینگ ست هم عکس زرافه رو هیچ وقت بهش ندادم ولی تو کلاسیفیکیشنش تو لایه در نظر گرفتم یا نامردی کردید یا عمدا نشون ندادید حالا این چجوری بازی رو شات بفهمه مبنای از لحاظ مبنایی کی میتونه اینو متوجه بشه هیچ زرافه ندیده بعد یه عکس زرافه بیاد این بتونه بگه زرافه است کی ممکنه این اتفاق بتونه رخ بده بقیه رو داره نه یک برای زیرو شات شما یک اینفورمیشن یا اطلاعات اضافی باید بهش داده زرافه شتر گاو پلنگ است حیوانی است که از یک بر شبیه شتر است از یک بر شبیه همچین جمله داده باشه یه توصیف متنی ولی یک دونه زرافه بهش نشون ندادیم یا مثلاً گورخر بگید و این انتظار داشته باشید که راه راه بودن و یه جایی پیدا کرده باشه چون از چیزای دیگه شبکه ترین شده باشه اسپ هم یه جای دیگه پیدا کرده باشه این دوتا رو تهیه هم ببینه زیر شات لرنینگ به شما بگه چی این گورخر خب ها به ستون سمت راست نگاه کنید گفته ترنس انگلیش تو فرنچ دو نقطه چیز اینتر زده خب به یه شبکه چیز لارج مدل مثل جیpt این زیر شاید هیچی این فقط یه جمله یه جمله فقط کمکش کرده گفته ترن انگلیش امیدواره که این جی پی مفهوم اینو بفهمید و بعد گفته چی بفهمه که اینم تازه باید برگرده اگه میخواست ل دو نقطه یه کلمهای داده جلوش معادل فرانسه نوشته دوباره یک کلمه انگلیسی داده معادل فرانسه دوباره یکی دیگه داره انگلیسی شات لرنینگه سه تا نمونه به انگلیسی از انگلیسی به فرنچ برام ترجمه کن درسته حالا اگر شما از شبکهتون انتظار داشته باشید با همین شات جواب بده بهتون خب بهش میگن مفهوم این کانتکس لرنینگ اصلاً شما به شبکه دست نمیزنید انجام میدید الان شما فقط از شبکه انتظار دارید شما خروجی بده و امیدوارید یعنی چشم امیدتون به اینه که این بازی رو لرنینگ کار برای شما دربیاره خب اما میشه چیکار کرد میشه وزن های شبکه رو آپدیت کرد دو سر بوم من برای شما توصیف بکنم که بهتون بگم هیچکدومش برای ما خوبیم وسطش یک سوم اینه که به هیچ وزن شبکه دست نزنید شبکه همین که هست با همین قابلیت شمایی که خودتو و محدودیتهاش بساز چیکار کن خروجی ابزار داریم انقدر که بتونیم مثلاً ۷ میلیارد و ۱۷۵ میلیارد یا ۱۵۰۰ میلیارد پارامتر رو چیکار کنیم که منطقی هم خدمتتون گفتم میزنید ابروشو درست کنید چشمشو کور میکنید مثلاً میاد فقط تسک شما نهایت خوبه عمل میکنه همه چی یادش میره همه مفاهیم اینکه ما چیکار کنیم که با یک انتخاب بهینه از در واقع پارامترهای شبکه بتونیم فا کنیم برای تسک خاص خودمون مثلاً همون کاری که گفتم آقای شهاب تو ذهنش انجام بده ولی مثلاً یه مدل زبانی جلوشه فرض کنید چه برد حدود چند صد میلیون پارامتر داره و چیکار کنه که این عادیتون همون با مفهوم گرادیان و اینا هی نمونه بهش بدید و آپدیت کنید که حالا بهتون میگم انتخاب این چیزی که باید از تست های قبلی یاد گرفته باشه کلمه ترنس یعنی چی انگلیش تو فرند یعنی چی انتظار داریم اینو یاد گرفته باشد دقیقا اگر بهش نمیگفتی دیگه منطقاً می نوشت چیز اینتر میزدید نباید چیزی میداد اینو حداقل بهش بده بین اللهی ولی ولی این کانتکس لرنینگ چیزی بوده که خودشون هم هاج و واج موندن یعنی خودشون هم فکر نمیکردن اینقدر شبکهها قوی باشن یک مفهوم یه مفهوم دیگه مفهوم ایمرجنت باز دوباره از اون یعنی ظهور یه سری اتفاقات تو قبل از هیچ تغری نبوده بعد از اینکه دیتاشونو از یه عددی بردن بالاتر خودش ظهور پیدا کرده مثلا این به این عکس دی نگاه کنید که persian qa یه شبکه مثلا فرض کنید جی پی تی مثلا سه قبل از اینکه با تعداد دادههای ۱۰ به توان ۲۲ تا مثلاً داده ترینش بکنن نمیتونسته جواب فارسی بده دقتش ۲۵ درصد بوده تعداد دادههاشونو بردن ۲۴ تا هیچ فرقی تو فرایند ترینینگ ش نبود دقت شده ۵۵ و این اتفاقات عجیب غریبی که داره ظهور میکنه تو فقط با رشد دادگاه زیاد میدن به شبکه زور شبکه میره بالا کلاً خب و این پدیده به نام ایمرجنت و این چیزی که واقعاً داره رویت میشه و الی آخر خیلی زیادی یاد میگیره ارتباط پیدا میکنه و به چیزهایی داره میرسه که ما فکر میکنیم مدل سوال فارسی بهش ندادیم این رفته ارتباطات عمیق زبانی پیدا کرده یعنی مثلاً فهمیده که وقتی این مدل فارسی ترجمه کرده برای خودش این از نهاد فعل فاعل مفعول تشکیل شده بعد علامت سوال من باید اینجوری برم جوابشو بدم اینو از کجا یاد گرفته انگلیسیه از رو اون رفته دیده من اینجوری تولید کرده و خفنی به نظر میاد که هرچی دارن فقط مدل را میبرن جلوتر داره زورشم بیشتر میشه معضلی که از ته ماجرا بهش داده کم آوردن از هر چیزی داشتن خرج کردن حالا احتمال داره مثلاً نسل بعدی واقعا این باشه دادههای خالی زیاد داره میده که ما نداریمش ساعتها آدمها با همدیگه مکالمه دارند در روز ولی هیچکی از این استفاده نمیکنه خب باز که هست تو آموزههای دینی ما هست که همه اینا نگه داشته میشه قیامت لحظه به لحظه ثانیه به ثانیه چیزی که گفتی مهمه تو میگیرن خب اینو فرض کنید نصب مجوز بگیرن بیان کلی مثلاً میکروفون نصب کنن تو کل عالم داده رو بگیرن بعد دوباره میتونن به شبکههای عجیب غریب تر برسن و و و یعنی الان داده کم آورد استفاده کردن ویدیو هم داشتن استفاده کردن بعضی ها مجوز نگرفتن از کتاب های آدما از فیلم های هالیوود و و و استفاده کردن کسی اجازه نگرفته کسی شبکه ترند شده یه غولی شده الان برای خودش همه چیو میتونه بگه حتی زیر اشاره آره دیگه مقالات استفاده میکنن الی آخر و اما بریم سر اصل ماجرامون این ماجرای علمیه تنها ما خیلی راحتتره و استیبل ترن توی توسعه ورت رفت ولی مثل تی فایو هم داریم که بردنشون جلو و سوال ما اینه که ما دنبال یک راه حل بینابینی هستیم نه میخویم شبکه داشته باشیم که به هیچیش نتونیم دست بزنیم که هرچی اون میگه زورش همونه که اون به ما داده نه اینکه ما بکوبیم از اول بسازیم خب مفهوم پیدا میشه به نام پارامتر افشن اگر تمام شبکه را بکوبید دوباره بسازید یعنی معماری دست نزدید ولی همه اون ۱۷۵ میلیارد پارامتر یا همه اون ۱۰۰ میلیون پارامتر دست بزنید بهش میگن اگر این اصطلاح رو جایی دیدید یعنی تمامی ها رو تغییر دادید فول کی منطقیه که انجامش بدیم هم داده تو اشل خود اونا داشته باشیم خب بعضی وقتا ما ریسرس محاسباتی داریم داده به اون اندازه نداریم روشهایی هستند به نام پارامینگ از بهتر عمل میکنه مثلا شما ۱۰ ۰۰۰ تا دارید نتیجه میگیرید چرا چون داده های کم خطر زیاده تو واقعیت بد عمل میکنه ولی پارامتر بهتون میگیم که خیلی افشنت عمل میکن و بهینه عمل میکنن با یه تعداد داده خیلی خیلی خیلی کمتر تو اوردر یک تا ۵ درصده کل جادههای شبکه شما پایین شبیه اونه حالا سوال اینه آیا بهترین مجهز به این روشهای پپت شدن مجهز به پخت شدن در واقع خیلی خیلی خفنتر از خود حالت عادی و یه پله خفن تر از قدیمی و پیاده سازی اما چرا اصلا ما به پفت نیاز داریم چرا مسئله پارامتر افشن مهمه چرا مهمه بچه ها چرا ما باید شبکه بتونیم کنیم چون تسکهامون مدام عوض میشن تسک های جدید ظاهر میشن که تا دیروز اصلاً فکرشم نمیکردیم وجود داشته باشن عرض به حضور شما یه سری کارها لازمه که تسکهای ریزتر بشکونه و بره جدا جدا انجام بده اینه که چیز بکنه مثلاً میگم فرض کنید شعوری پشتش نبود یه مشت نوشته بوده این رفته یه چیزایی یاد گرفته مثلا وسط راه یاد گرفته فحش هم بده بعد شما مثلاً میخواید آقا یه مقدار رعایت بکن مثلاً یه همچین چیزایی باید چیز بذارید که وقتی خروجی تولید یه جایی هم مثلاً ببندی و فلان و اینا و این الاینمنت ها و تغییرات لازمه انجام بدید و کلاً ترنسفر لرنینگ کردن هم به تسک های جدید هم به مدالیتی های جدید یعنی تلفیق نوشته عکس فیلم الی آخر در کنار همدیگه سبب میشه که ما به پفت احتیاج داشته باشیم اما سوال یه عده گفتن ما بیایم چیز کنیم مثل حالت عادی ترنسفر لرنینگ از آخرین لایه بگیریم بیایم عقب مثلاً یه شبکه برتو بگیریم اول فقط لایه آخرشو خودش حدود ۱۰ به توان ۸۰ خب بعد مثلاً ۱۰ به توان شش تاشو که تیون میکردن میدید نسبت به پولی فا ۱۰ درصد پایین تر خب ولی بد نبود ها مثلا شبکه فقط لایه چند تا لایه آخر که حدود یک میلیون تا پارامتر بوده فقط ریتیون میکردن ۹۰ درصد دقت رو میرسیدن بعد آوردن ۱۰ به توان هفت تاش کردن دیدن اومدن بالاتر ولی دیدن زمانی که بخوان به دقت کولیفای برسن باید چیکار کنن تو اردر ۱۰ به توان هشت تا باید پارامتر با حدود ۱۰ به توان ۵ تا پارامتر کردن به همون دقت و یک سوال مطرح شد که چیکار میکنه آیا ما لازمه که از لایه آخر بیاریم عقب یا میشه حقههای دیگهای زد و کارهای دیگهای کرد همین قدر بدونید که پس روشهای در واقع ترنسفر لزوما بهینه ترین نیستند اما دنبال پارامتر افشنت متدها هستیم در یک نگاه بچه ها اون سه تا چیزی که میخوام خدمتتون بگم اینجا براتون آوردیم سه تا روش پت میخوایم بهتون بگیم که اینا میتونن تکی استفاده شن و میتونن هر سه تاشون با همدیگه استفاده شن و هر کدومشون در عین اینکه تعداد پارامترهای کمی از شبکه رو میکن دقت قابل ملاحظهای میارن بالا یک روش اسمش هست ادپتر که شبکههای چیز عادی ترانسفورمر عادی بعد از اینکه اتنشن و فیت فوروارد نتورک داشتیم یادتون بود میرفت با خودش جمع میشد و بعد از نتورکها میگذشت یه سری باکس های قرمز رنگی اینجاهایی که من بهت میگم اضافه کن خب یکی بعد فوروارد نتورک ها اضافه کن حالا تو ورژن اولیش بعد اضافه کرده بعدش دیدن که حتی اینم بردارم اون بالایی رو فقط بزارم خوبه بهتون میگم چیه یه روشی داریم به نام سافت خب که تو ورودی تغییرات به وجود میاره من این سوال ازتون بپرسم به زیرو لرنینگ فرض کنید به چیز به مثلاً یه ال میید ترنس انگلیسی دو نقطه چیز اینترزنید یک کلمه آیا امکان شما میتونستید عوض بکنید که باز هم این کارو بکنه آره مثلاً پلیز کاملا ممکنه تغییر بکنه یه عدهای دستی اومدن روی این کار کردن چه پرامتی بدیم دقت تسکمون میره بالاتر یعنی ایده دادن که من مثلاً چند تا جمله پیشنهاد بدم یا الگوهایی پیشنهاد دادن که اگه این کارو بکنیم دقت شبکههای عمیق همیشه دنبال کنن همه چیو کاری کنن که حتی این هم در بیاد توی روش سافت اینجوری میکنه که میاد به ورودی چند تا توکن اضافه تر اضافه میکنه که این قرمز ترینبلن مفهومش این میشه که جملهای که شما دادید چون چند تا هم اون ترین آورده انگار جملهتون رو تغییر داده مثلاً جمله شما واقعاً این بوده ترن دیسپ انگلیش یا فرام انگلیش تو فرنچ ولی اون با توکن های که آورده مثل این بوده که دیده که این بهتر کار میکنه که حقه میزنه و چند تا توکن اضافه میکنه تو ورودی و مثل اینکه جمله شما را عوض میکنه یه روش که داستان عوض میکنه و هر سه تای اینا میتونه با هم حتی استفاده بشه و اینا در واقع مهمترین متد های معروف ترین و الان کلاً دارن از اینا استفاده میشه عرض به حضور شما که یه ده دقیقه استراحت بفرمایید ساعت ۱۱:۴۰ برگردید من تمام میکنم و آقای سهراب میگم بیاد حالا بخش اول کد شما تشریف بیارید چیز به درد بفرمایید خیلی سریع بگم سه تا روش معروف داره زدید اولین روش بسیار کارا بود و تو اون عکس دیدید که در مقابل جزئی بسیار بسیار قوی عمل میکرد روش به نام اضافه کردن ماژولهای ادپتر حرف یادتونه یه بخش در واقع چیز داشتید سل داشت فوروارد نتورک میشد میگه بیا بعد سلف اتنشن و بعد نتورک یه همچین شبکه بزار که اینجا نشون دادم خب یعنی اینجا که قبلا هیچی نبوده شما ادپتر بزار و حالا خود ادپتر چیه خود ادپتر یک شبکه دو لایه است میگه مثلاً فرض کن که توکن بردار هزارتایی بهت رسیده اول کوچیکش کن مثلاً بکنش ۱۰ تا ۵۰ تا بعد یه مثل جلو چیزی روش بزن و دوباره برگردونه به هزار کاری که میکنید اینه حالا تو شبکه بیا اینو این ادپترها رو به تمام ماژولهای انکودرتون اضافه کنید و سایر وزن های شبکه رو فریز کنید این دفعه دیگه برخلاف ترانسفر لرنینگ که لایه آخر یکی مونده به آخر دوتا فریز میکرد یه چیزهای فریز داره یه چیزایی چند صد میلیون پارامتر یا جی پی تی ولی آخر یا چند میلیاردشون هدفرا چی میشن یه سری تعداد پارامتر محدودی که رفتن وسط شبکه چی شدن جا شدن و شما فقط میخواید اینا رو تیون کنید تا اون تسک مورد نظر شما انجام خب پس یه در ضمن ادپتر علاوه بر این شبکه فوروارد یه دونه چی هم داره اسکیپ کانکشن هم داره که قبلش بیاد و بعدش وصل کنه حالا فرض کنید یه شبکه گرفتید برای مثال زدید خوب میخوید اول شبکه فعلا کارهای قبلی خودش بتونه انجام بده شبکه با چه وزن های چیز میکنید اینشیالایز میکنید نزدیک چند نزدیک تا چه اتفاقی بیفته مثل اینکه وجود نداشته باشه یعنی فاز چیز هست فاز مستقیمش وجود نداشته باشه چه اتفاق خوبی میفته تمام تسک های قبلی یادشه حالا میگه شروع کن حالا خرابکاری میکنه یه مثال بزنیم اگه شما یه دونه ۱۰۰ تایی داشته باشید خب بعد ببر چند تا ده داره چند تا پارامتر اضافه میکنه بایوس رو ولش کنید یه ۱۰۰ تا رفتید به ۱۰ تا این چند تا بهتون میده هزار اینجا داره ۱۰ برگرد یه ۲۰۰۰ تا پارامتر به تعداد ضربدر دو هم بکنید میشه ۴۰۰۰ تا به تعداد ماژ این کد دارید و تعداد پارامتر میبینید که در کل مثلا ۴۰۰ هزار تا در حالی که تلاش میکنه خروجیش خیلی غافلگیر کننده نباشه برای ورودی بالایی یعنی ماهیت یه دلتایی به خودش میگیره اینکه نسبت به اون لحظه دستش رسیده تغییراتی هم بده جزئی که چی بشه که بعدی که داد بالای غافلگیر نشه بتونه تسک های مثلا چیزهای قبلی خودش تا حد امکان داشته باشه خب و این ماجرا سبب میشه که چون ادپترها بعضی وقتا قابلیت این دارند که ترین شد برش دارید یه جای دیگه یه روزی استفاده کنید مثلا میگم یه شبکه دارید یه تسک یک من درآوردی مثل اون عوض میکنید چی میشه ۲۰۰ میلیون خب و کسی که یک دست انجام میدید و در ضمن ممکنه شما به درد دیگران بخوره جوری که دارن جاهایی بارگذاری بکنید که توی پیاده سازی بیخیال ش بریم جلو یه مطالعاتی هم انجام شد که دیدن حتی بعد چیز هم نیاز نیست سل پشن هم بزاری همین فقط بده نتورکی هم بزاری هم به همون کیفیت خوب کار انجام میده یه مثال ببینید از ادپترها گفته مثلاً یه بار برت لارج رو برداشتم خب داشته باشند ۹ تا ۲۰۰ میلیون تا ترین کرده تا به دقت توتال ۸۰.۴ درصد برسه همین کار رفته با ادپتر انجام داده کلا دو درصد پارامترها از لحاظ حجم درگیر بودن به دقت ۷۹.۶ خب فقط جا داده و فقط ادپترها رو ترین کرده با دقت نزدیک به همون کاری که کرد رفته چیکار کرده کار خب عرض به حضور شما باز دوباره مثال های دیگه که تو ادپتر هست دیدن که وقتی رفتن لایههای آخر شبکه را ترین کردن از مثلاً ۱۰ به توان ۷۰ با دقت ۷۸ درصد رفتم در حالی که با ادب ۵ تا پارامترم هنوز دقته بهتر از با اون تعداد داده دارند زمانی خیلی موفقه که دادههاشم خیلی زیاد باشه اگه دادههاتون کم باشه خطر داره رو ادپتر واریانت های مختلفی زده شده یه آقایی به نام فایفر توی دانمارک گروهشون خیلی توی زمینه کار کرده اومده مثلا همین پیشنهاد داده که آقا بعد چیز جا بدید بخش جا بدید در ضمن اون جایی که میرفت بای پس میشد قبل عدن نور بزارید دیگه بهتر میشه با چیز رفته با سعی و خطا دیگه اون اسکیپ کالکشن رو اگه به جای قبلش بگیرید دقت شبکه بالاتر میره فقط تنها جایی که در واقع ترین میشه این بخش بالاییه ماژول های اینکودر یا دیکودره یه بخش پایینش کامل فریز شده |