Ո՞րն է տարբերությունը ավտոմատ կոդավորիչի ներթափանցման և թաքնված շերտի միջև:


պատասխանել 1:

Տեղադրելը իսկապես մաթեմատիկական տերմին է: Կարծում եմ, որ դա գալիս է տեղաբանությունից:

Հիմնական գաղափարն այն է, որ դուք ունեք մի տեսակ բարդ առարկա (տարածք), բայց ինչ-որ կերպ տեղադրեք այն (կամ ներմուծեք այն) էվկլիդյան տարածքում: Գործնականում սա նշանակում է, որ այս բնօրինակ տարածության յուրաքանչյուր կետ ունի համակարգեր այս էվկլիդյան տարածքում: Կարող եք պատկերացնել, որ բառացիորեն աստղաձև ձև եք վերցնում և իջնում ​​Քարտեզյան մակարդակի: Այժմ աստղի յուրաքանչյուր եզրագիծ ունի կոորդինատներ: Ակնհայտ է, որ այդ կոորդինատները բնորոշ չեն, քանի որ կարող էրիք օբյեկտը տեղադրել այլուր և այլ կերպ պտտվել: Բայց կա էական բան: Օրինակ ՝ ուղղահայացների միջև հեռավորությունները այժմ կարող են հաշվարկվել այս կոորդինատների միջոցով, և դրանք չեն փոխվի ՝ անկախ նրանից, թե ինչպես եք ներկառուցել օբյեկտը: Այս կերպ դուք ինչ-որ բան եք սովորում օբյեկտի մասին:

Դուք հավանաբար գիտեք Արքիմեդի հայտնի պատմությունը, որը պարզեց, որ պսակը, որը նա պետք է ուսումնասիրեր, պատրաստված չէ ամուր ոսկուց: Նա «ներկառուցեց» այն հեղուկ և կարդաց դրա ծավալը: Ծավալը չի ​​փոխվի, եթե նա դրանք այլ կերպ ներկառուցեր: Մենք օգտագործում ենք մեր ներդրումները նույն ձևով:

Ամեն ինչ տեսական է, բայց իրականում ինչպե՞ս եք ներառում հաշվողական օբյեկտ: Եկեք ասենք, որ մենք ունենք նկար և ուզում ենք այն ներկառուցել: Սա հեշտ է, քանի որ պատկերն ընդամենը թվերի շարք է (3D ձևավորված, եթե գույնը ՝ 2d, եթե գորշ մասշտաբով), և մենք դա կարող ենք պարզապես վերածել մեկ վեկտորի, և մենք արված ենք: Պատկերն այժմ էվկլիդայի վեկտոր է: Սա ներկառուցված է, բայց ոչ օգտակար, քանի որ երբ դուք հաշվարկում եք էվկլիդյան բաները (հեռավորությունները և անկյունները) պատկերների միջև, դրանք ոչ մի օգտակար բան չեն նշանակում: Երբ մենք մեքենայական ուսուցում ենք անում, մենք իսկապես ուզում ենք ներկառուցել այն, որում մոտակա առարկաները մի փոքր նման են, իսկ հեռավորության վրա գտնվող առարկաները ՝ տարբեր: Եթե ​​ունեք այդպիսի ներկառուցվածություն, ապա հաճախ հեշտ է այն վերափոխել դասակարգման, ռեգրեսիայի կամ դասակարգման համակարգի `ցանկացած առաջադրանքի համար, որը հաշվի է առնում այս տեսակի նմանությունը: Իսկապես բարդ գործն է ՝ սահմանել, թե ինչ է նմանությունը նշանակում տվյալ դեպքում:

(Ուշադրություն դարձրեք, որ կարող եք նաև բառերի նման առանձնացնել առարկայական առարկաներ ՝ սկսելով մեկ-տաք կոդավորմամբ):

Նման ներկառուցումը ստանալու մեկ եղանակ է ավտոմատ կոդավորիչը:

Ավտոմատ կոդավորողի թաքնված շերտը, ակնհայտորեն, վեկտոր է, այսինքն `ներկառուցված: Բացի այդ, այն պարունակում է տեղեկատվություն բնօրինակ օբյեկտի վերարտադրության մասին, որը, սակայն, պահվում է կոմպակտ կերպով: Որպես կանոն, ավտոմատ կոդավորիչը օպտիմիզացնում է վերակառուցման սխալը, այնպես որ կարելի է հուսալ, որ այս թաքնված շերտը կհամապատասխանի այս հատկությանը, եթե շերտի փոքր փոփոխությունը հանգեցնում է արդյունքի փոքր փոփոխության և հակառակը: Սա ավելի լավ ներդրում է, քան սկզբնական ներդրումը: Սա սուբյեկտիվ է, բայց համենայն դեպս դա ցածր-ծավալային ներդրում է, քան բնօրինակը, քանի որ այդ դեպքում սովորաբար օգտագործում ես ավելի ցածր չափսի թաքնված շերտ:

Սա իրականում լավ ներդրում է գործնականում: Ես իսկապես չէի ասի: Որոշ դեպքերում դա կարող է լինել լավագույն գործը, որը դուք կարող եք անել: Դա այնքան էլ լավ չէ, պարզապես այն պատճառով, որ երկու առարկաները նման են, եթե դրանց սկզբնական ներկայացուցչությունը մոտ է միմյանց ՝ էվկլիդյան հեռավորության առումով: Այլ կերպ ասած, ձեր սկզբնական իրականացումը ենթադրվում է, որ ներդաշնակ է, և այն գտնվում է միայն մեկ այլ ցածր ծավալային ներդրում, որը մոտենում է դրան, և հուսով ենք, որ սա մեզ մի օգտակար բան կտա: Միգուցե, բայց երաշխիք չկա: Դա խստորեն կախված է նրանից, թե արդյոք ձեր սկզբնական ներկայացուցչությունն արդեն հարմար էր էվկլիդյան հեռավորության չափումների համար:

Որպես կանոն, ավելի հաջող ներդրումները վերապատրաստվում են խտրական խնդիրների վրա: Այնտեղ կարող եք ասել, որ երկու առարկաները նման են, եթե դասակարգման առաջադրանքի մեջ պատկանում են նույն դասին, կամ հետընթաց արդյունքների դեպքում տալիս են մոտ արդյունքներ:

Ամփոփելով ՝ ավտոմատ կոդավորողի թաքնված մակարդակը ներդրման տեսակ է, բայց սովորաբար ամենալավը չէ, ինչ կարող ես անել:


պատասխանել 2:

Դմիտրիին արդեն հստակ բացատրել է իր պատասխանի տարբերությունը: Ավելացնելու շատ բան չկա ...

  • «Ներկառուցվածություն» տերմինը, որն օգտագործվում է այս համատեքստում, սովորաբար վերաբերում է վեկտորին, որն ունի որոշ բնօրինակ տվյալների կրճատված ծավալային ներկայացում, ընդ որում դիտարկված / չհետևող մոդելը կատարում է չափման կրճատում: Չափավոր կրճատումը հաճախ հանգեցնում է վեկտորի, որը գրավում է որոշ իմաստաբանական հատկություններ մուտքային տվյալների ամբողջ շարքում: Օրինակ ՝ wordveveve- ի ներդրման / վեկտորների մի մոդելի մեջ «կատուներ» բառերի վեկտորը, ամենայն հավանականությամբ, ավելի մոտ կլինի (օրինակ ՝ կոսինային տարածություն) «շների» համար վեկտորին, քան «ինքնաթիռներ» բառին (ենթադրելով): որ մուտքային դասընթացում կորպուսի կատուներն ու շները կամ ուղղակիորեն / անուղղակիորեն ավելի հաճախ հիշատակվում են միասին, քան «կատուները» և «ինքնաթիռները»:) Մոդելների ոչ սպառիչ ցանկ, որը կարող է արտադրել ներդիրներ / վեկտորներ ՝ կրճատված չափսերով, ավտոմատ կոդավորիչի այնպիսի մոդելներ, ինչպիսիք են word2vec, Fasttext: և այլն, հաջորդականության մոդելը, ինչպիսին է LSTM- ը (թաքնված վիճակը ժամանակի այս պահին դիտված բոլոր մուտքերի ներկայացուցչությունն է), հետևաբար, կարող է ծառայել որպես նախադասության ներդրման ներդրում: Օրինակ ՝ մեքենայական թարգմանության դեպքում այն ​​կարող է ծառայել որպես մուտքային լեզվի սահմանման կոդավորում, որն այնուհետև մատուցվում է այլ լեզվով ապակոդավորողի միջոցով: )