පරිවර්තක, එම පරිවර්තක වලට කුමක් කළ හැකිද?

Ask a Question Open In Colab Open In Studio Lab

මෙම කොටසේදී, අපි පරිවර්තක ආකෘතිවලට කළ හැකි දේ දෙස බලා 🤗 පරිවර්තක library යෙන් අපගේ පළමු මෙවලම භාවිතා කරමු.: pipeline() කාර්යය.

👀 ඉහළ දකුණේ ඇති Open in Colab බොත්තම බලන්න. මෙම කොටසේ සියලුම කේත සාම්පල සහිත Google Colab සටහන් පොතක් විවෘත කිරීමට එය මත ක්ලික් කරන්න. මෙම බොත්තම, කේත උදාහරණ අඩංගු ඕනෑම කොටසක පවතිනු ඇත.

ඔබට දේශීයව උදාහරණ ධාවනය කිරීමට අවශ්‍ය නම්, අපි සැකසුම් බැලීමට නිර්දේශ කරමු.

පරිවර්තක හැමතැනම !

පරිවර්තක ආකෘති පෙර කොටසේ සඳහන් කර ඇති පරිදි, සියලු වර්ගවල NLP කාර්යයන් විසඳීමට භාවිතා කරයි. Hugging Face සහ පරිවර්තක ආකෘති භාවිතා කරන සමාගම් සහ සංවිධාන කිහිපයක් මෙහි සදහන් වේ. ඔවුන් ඔවුන්ගේ ආකෘති බෙදාගැනීමෙන් ප්‍රජාවට නැවත දායක වේ:

Companies using Hugging Face

🤗 පරිවර්තක library එම හවුල් ආකෘති නිර්මාණය කිරීමට සහ භාවිතා කිරීමට ක්‍රියාකාරීත්වය සපයයි. ආදර්ශ කේන්ද්‍රය ඕනෑම කෙනෙකුට බාගත කළ හැකි සහ පෙර පුහුණු කරන ලද ආකෘති දහස් ගණනක් අඩංගු වේ. ඔබට ඔබේම මාදිලි කේන්ද්‍රය වෙත උඩුගත කිරීමටද හැකිය!

⚠️ Hugging Face කේන්ද්‍රය පරිවර්තක ආකෘතිවලට පමණක් සීමා නොවේ. ඕනෑම කෙනෙකුට ඔවුන්ට අවශ්‍ය ඕනෑම ආකාරයක මාදිලි හෝ දත්ත කට්ටල බෙදා ගත හැකිය ! පවතින සියලුම විශේෂාංග වලින් ප්‍රයෝජන ගැනීමට huggingface.co ගිණුමක් සාදන්න!

පරිවර්තක ආකෘති ආවරණය යටතේ ක්‍රියා කරන ආකාරය ගැන ගැඹුරින් ඉගෙනීමට පෙර, සිත්ගන්නා NLP ගැටළු කිහිපයක් විසඳීමට ඒවා භාවිතා කළ හැකි ආකාරය පිළිබඳ උදාහරණ කිහිපයක් බලමු.

pipelines සමඟ වැඩ කිරීම

🤗 පරිවර්තක library යේ ඇති මූලිකම වස්තුව වන්නේ pipeline() කාර්යයි. එය ආකෘතියක් එහි අවශ්‍ය පෙර සැකසුම් සහ පසු සැකසුම් පියවර සමඟ සම්බන්ධ කරයි, අපට ඕනෑම පාඨයක් සෘජුවම ඇතුළත් කිරීමට සහ තේරුම්ගත හැකි පිළිතුරක් ලබා ගැනීමට ඉඩ සලසයි:

from transformers import pipeline

classifier = pipeline("sentiment-analysis")
classifier("I've been waiting for a HuggingFace course my whole life.")
[{'label': 'POSITIVE', 'score': 0.9598047137260437}]

අපට වාක්‍ය කිහිපයක් පවා ඇතුලත් කළ හැකිය!

classifier(
    ["I've been waiting for a HuggingFace course my whole life.", "I hate this so much!"]
)
[{'label': 'POSITIVE', 'score': 0.9598047137260437},
 {'label': 'NEGATIVE', 'score': 0.9994558095932007}]

පෙරනිමියෙන්, මෙම pipeline එක ඉංග්‍රීසියෙන් හැඟීම් විශ්ලේෂණය සඳහා මනාව සකස් කර ඇති විශේෂිත පූර්ව පුහුණු ආකෘතියක් තෝරා ගනීයි. ඔබ ‘වර්ගකාරකය’ වස්තුව සාදන විට ආකෘතිය බාගත කර නිහිත කර ගනියි. ඔබ විධානය නැවත ක්‍රියාත්මක කරන්නේ නම්, ඒ වෙනුවට නිහිත ආකෘතිය භාවිතා කරනු ඇති අතර නැවත ආකෘතිය බාගත කිරීමට අවශ්‍ය නොවේ.

ඔබ යම් පාඨයක් pipeline එකට යවන විට ප්‍රධාන පියවර තුනක් ඇතුළත් වේ:

  1. පාඨ ආකෘතියට තේරුම් ගත හැකි ආකෘතියකට පෙර සකසනු ලැබේ.
  2. පෙර සැකසූ ආදාන, ආකෘතියට යවනු ලැබේ.
  3. ආකෘතියේ පුරෝකථනයන් පසු-සැකසුම් කර ඇත, එබැවින් ඔබට ඒවා තේරුම් ගත හැකිය.

දැනට තිබෙන pipelines සමහරක්:

අපි මේවායින් කිහිපයක් ගැන බලමු!

Zero-shot වර්ගීකරණය

අපි ලේබල් කර නොමැති පාඨ වර්ගීකරණය කිරීමට අවශ්‍ය, වඩාත් අභියෝගාත්මක කාර්යයක් සමඟින් ආරම්භ කරන්නෙමු. පාඨ සටහන් කිරීමට සාමාන්‍යයෙන් කාලය ගතවන නිසාත්, වසම් ප්‍රවීණත්වය අවශ්‍ය වන නිසාත්, මෙය සැබෑ ලෝක ව්‍යාපෘතිවල පොදු සිදුවීමකි. මෙම භාවිත අවස්ථාව සඳහා, ‘zero-shot-classification’ pipeline ඉතා වැදගත් වේ: වර්ගීකරණය සඳහා කුමන ලේබල භාවිතා කළ යුතුද යන්න සඳහන් කිරීමට එය ඔබට ඉඩ සලසයි, එබැවින් ඔබට පෙර පුහුණු කළ ආකෘතියේ ලේබල මත විශ්වාසය තැබිය යුතු නැත. එම ලේබල් දෙක භාවිතයෙන් ආකෘතියට වාක්‍යයක් ධන හෝ සෘණ ලෙස වර්ගීකරණය කළ හැකි ආකාරය ඔබ දැනටමත් දැක ඇත - නමුත් එයට අමතරව ඔබ කැමති වෙනත් ලේබල් කට්ටලයක් භාවිතයෙන් පාඨ වර්ගීකරණය කළ හැකිය.

from transformers import pipeline

classifier = pipeline("zero-shot-classification")
classifier(
    "This is a course about the Transformers library",
    candidate_labels=["education", "politics", "business"],
)
{'sequence': 'This is a course about the Transformers library',
 'labels': ['education', 'business', 'politics'],
 'scores': [0.8445963859558105, 0.111976258456707, 0.043427448719739914]}

මෙම pipeline, zero-shot ලෙස හඳුන්වනු ලබන්නේ එය භාවිතා කිරීමට ඔබේ දත්තවල ඇති ආකෘතිය මනාව සකස් කිරීමට ඔබට අවශ්‍ය නොවන බැවිනි. ඔබට අවශ්‍ය ඕනෑම ලේබල් ලැයිස්තුවක් සඳහා එය සෘජුවම සම්භාවිතා ලකුණු ලබා දෙයි!

✏️ අත්හදා බලන්න! ඔබේම අනුපිළිවෙලවල් සහ ලේබල සමඟ අත්හදා බැලීම් කර ආකෘතිය හැසිරෙන ආකාරය බලන්න.

පාඨ ජනනය

දැන් අපි බලමු pipeline භාවිතා කර යම් පාඨයක් ජනනය කරන ආකාරය. මෙහි ඇති ප්‍රධාන අදහස නම්, ඔබ ප්‍රේරකයක් ලබා දීම සහ ඉතිරි පාඨ ජනනය කිරීමෙන් ආකෘතිය එය ස්වයංක්‍රීයව සම්පූර්ණ කිරීමයි. මෙය බොහෝ දුරකථනවල ඇති අනාවැකි පාඨ විශේෂාංගයට සමාන වේ. පාඨ උත්පාදනයට අහඹු බව ඇතුළත් වේ, එබැවින් ඔබට පහත පෙන්වා ඇති පරිදි සමාන ප්‍රතිඵල නොලැබේ නම් එය සාමාන්‍ය දෙයකි.

from transformers import pipeline

generator = pipeline("text-generation")
generator("In this course, we will teach you how to")
[{'generated_text': 'In this course, we will teach you how to understand and use '
                    'data flow and data interchange when handling user data. We '
                    'will be working with one or more of the most commonly used '
                    'data flows — data flows of various types, as seen by the '
                    'HTTP'}]

ඔබට ‘num_return_sequences’ විස්තාරය සහ ‘max_length’ විස්තාරය සමඟින් ප්‍රතිදාන පාඨයෙහි මුළු දිග සමඟ විවිධ අනුපිළිවෙලවල් කීයක් ජනනය වේද යන්න පාලනය කළ හැක.

✏️ අත්හදා බලන්න! වචන 15 බැගින් වාක්‍ය දෙකක් උත්පාදනය කිරීමට num_return_sequences සහ max_length විස්තාර භාවිතා කර බලන්න.

Hub වෙතින් ඕනෑම ආකෘතියක් pipelineයක භාවිතා කිරීම

පෙර නිදසුන්හි ඇති කාර්යය සඳහා පෙරනිමි ආකෘතිය භාවිතා කළ නමුත්, ඔබට නිශ්චිත කාර්යයක් සඳහා නල pipeline භාවිතා කිරීමට Hub වෙතින් විශේෂිත ආකෘතියක් තෝරා ගත හැකිය - එනම්, පාඨ උත්පාදනය. ආකෘති කේන්ද්‍රය වෙත ගොස් එම කාර්යය සඳහා සහය දක්වන ආකෘති පමණක් පෙන්වීමට වම් පස ඇති අනුරූප ටැගය මත ක්ලික් කරන්න. ඔබ මෙය වැනි පිටුවකට යා යුතුය.

අපි distilgpt2 ආකෘතිය උත්සාහ කරමු ! පෙර පරිදිම pipeline හි එය ප්‍රවේශනය කරන ආකාරය:

from transformers import pipeline

generator = pipeline("text-generation", model="distilgpt2")
generator(
    "In this course, we will teach you how to",
    max_length=30,
    num_return_sequences=2,
)
[{'generated_text': 'In this course, we will teach you how to manipulate the world and '
                    'move your mental and physical capabilities to your advantage.'},
 {'generated_text': 'In this course, we will teach you how to become an expert and '
                    'practice realtime, and with a hands on experience on both real '
                    'time and real'}]

ඔබට භාෂා ටැග් මත ක්ලික් කිරීමෙන් ආකෘතියක් සඳහා ඔබේ සෙවුම පිරිපහදු කළ හැකි අතර, වෙනත් භාෂාවකින් පාඨ උත්පාදනය කරන ආකෘතියක් තෝරා ගන්න. ආකෘති කේන්ද්‍රය හි භාෂා කිහිපයකට සහාය දක්වන බහුභාෂා ආකෘති සඳහා අවේක්ෂණ ස්ථාන පවා අඩංගු වේ.

ඔබ එය මත ක්ලික් කිරීමෙන් ආකෘතියක් තෝරාගත් පසු, ඔබට එය සෘජුවම මාර්ගගතව උත්සාහ කිරීමට හැකි විජට් එකක් ඇති බව ඔබට පෙනෙනු ඇත. ඔබට මේ ආකාරයෙන් බාගත කිරීමට පෙර, ආකෘතියේ හැකියාවන් ඉක්මනින් පරීක්ෂා කළ හැකිය.

✏️ අත්හදා බලන්න! වෙනත් භාෂාවක් සඳහා පාඨ උත්පාදන ආකෘතියක් සොයා ගැනීමට පෙරහන් භාවිතා කරන්න. විජට් භාවිත කර හුරුවන්න සහ එය pipeline හි භාවිතා කරන්න!

අනුමාන API

Hugging Face වෙබ් අඩවිය හි ඇති අනුමාන API භාවිතයෙන් සියලුම ආකෘති ඔබගේ බ්‍රවුසරය හරහා කෙලින්ම පරීක්ෂා කළ හැක. අභිරුචි පාඨ ඇතුළත් කිරීමෙන් සහ ආදාන දත්ත ක්‍රියාවට නංවන ආකෘතිය නැරඹීමෙන් ඔබට මෙම පිටුවෙහි ආකෘතිය සමඟ කෙලින්ම ගනුදෙනු කළ හැක.

විජට් බලගන්වන අනුමාන API ගෙවුම් නිෂ්පාදනයක් ලෙසද ලබා ගත හැකි අතර, එය ඔබගේ කාර්ය ප්‍රවාහ සඳහා අවශ්‍ය නම් ප්‍රයෝජනවත් වේ. වැඩි විස්තර සඳහා මිල පිටුව බලන්න.

ආවරණ පිරවීම

ඔබ උත්සාහ කරන මීළඟ pipeline වන්නේ fill-mask ය. මෙම කර්තව්‍යයේ අදහස නම් දී ඇති පාඨයක හිස් තැන් පිරවීමයි:

from transformers import pipeline

unmasker = pipeline("fill-mask")
unmasker("This course will teach you all about <mask> models.", top_k=2)
[{'sequence': 'This course will teach you all about mathematical models.',
  'score': 0.19619831442832947,
  'token': 30412,
  'token_str': ' mathematical'},
 {'sequence': 'This course will teach you all about computational models.',
  'score': 0.04052725434303284,
  'token': 38163,
  'token_str': ' computational'}]

top_k විස්තාරය මඟින් ඔබට සංදර්ශන කිරීමට අවශ්‍ය අවස්ථා ගණන පාලනය කරයි. මෙහිදී ආකෘතිය පුරවන්නේ විශේෂ <mask> වචනය, එය බොහෝ විට mask token ලෙසින් හඳුන්වනු ලබන බව සලකන්න. වෙනත් ආවරණ පිරවුම් මාදිලිවල විවිධ ආවරණ ටෝකන තිබිය හැක, එබැවින් වෙනත් ආකෘති ගවේෂණය කිරීමේදී නිසි ආවරණ වචනය සත්‍යාපනය කිරීම සැමවිටම හොඳය. එය පරීක්ෂා කිරීමට එක් ක්‍රමයක් නම් විජට් එකේ භාවිතා වන ආවරණ වචනය බැලීමයි.

✏️ අත්හදා බලන්න! කේන්ද්‍රය මත ‘bert-base-cased’ ආකෘතිය සොයන්න සහ අනුමාන API විජට් තුළ එහි ආවරණ වචනය හඳුනා ගන්න. ඉහත අපගේ pipeline උදාහරණයේ වාක්‍යය සඳහා මෙම ආකෘතිය පුරෝකථනය කරන්නේ කුමක්ද?

නම් කරන ලද භූතාර්ථ හඳුනාගැනීම

නම් කරන ලද භූතාර්ථ හඳුනාගැනීම (NER) යනු පුද්ගලයන්, ස්ථාන, හෝ සංවිධාන වැනි ආයතනවලට අනුරූප වන ආදාන පෙළෙහි කුමන කොටස්ද යන්න ආකෘතිය විසින් සොයා ගත යුතු කාර්යයකි. අපි උදාහරණයක් බලමු:

from transformers import pipeline

ner = pipeline("ner", grouped_entities=True)
ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")
[{'entity_group': 'PER', 'score': 0.99816, 'word': 'Sylvain', 'start': 11, 'end': 18},
 {'entity_group': 'ORG', 'score': 0.97960, 'word': 'Hugging Face', 'start': 33, 'end': 45},
 {'entity_group': 'LOC', 'score': 0.99321, 'word': 'Brooklyn', 'start': 49, 'end': 57}
]

මෙහිදී ආකෘතිය නිවැරදිව හඳුනාගෙන ඇත්තේ සිල්වේන් පුද්ගලයෙකි (PER), Hugging Face සංවිධානයක් (ORG) සහ බෘක්ලින් ස්ථානයක් (LOC).

එකම වස්තුවට අනුරූප වන වාක්‍යයේ කොටස් නැවත සමූහගත කිරීමට pipelineයට පැවසීමට අපි pipeline නිර්මාණය කිරීමේ කාර්යයේ grouped_entities=True ලෙස ලබාදෙමු: මෙහි නම බහු වචන වලින් සමන්විත වුවද, ආකෘතිය නිවැරදිව “Hugging” සහ “Face” තනි සංවිධානයක් ලෙස කාණ්ඩගත කර ඇත. ඇත්ත වශයෙන්ම, අපි ඊළඟ පරිච්ඡේදයේ දකින පරිදි, පෙර සැකසුම් සමහර වචන කුඩා කොටස් වලට පවා බෙදා ඇත. උදාහරණයක් ලෙස, Sylvain කොටස් හතරකට බෙදා ඇත: S, ##yl, ##va, සහ ##in. පසු-සැකසීමේ පියවරේදී, pipeline සාර්ථකව එම කොටස් නැවත සමූහගත කරන ලදී.

✏️ අත්හදා බලන්න! ආකෘති කේන්ද්‍රයේ ඉංග්‍රීසියෙන් කථනයේ කොටසක් ටැග් කිරීම (සාමාන්‍යයෙන් POS ලෙස කෙටියෙන්) කළ හැකි ආකෘතියක් සොයන්න. ඉහත උදාහරණයේ වාක්‍යය සඳහා මෙම ආකෘතිය පුරෝකථනය කරන්නේ කුමක්ද?

ප්‍රශ්නයට පිළිතුරු දීම

question-answering pipeline ලබා දී ඇති සන්දර්භයකින් තොරතුරු භාවිතා කරමින් ප්‍රශ්නවලට පිළිතුරු සපයයි:

from transformers import pipeline

question_answerer = pipeline("question-answering")
question_answerer(
    question="Where do I work?",
    context="My name is Sylvain and I work at Hugging Face in Brooklyn",
)
{'score': 0.6385916471481323, 'start': 33, 'end': 45, 'answer': 'Hugging Face'}

සපයන ලද සන්දර්භයෙන් තොරතුරු උපුටා ගැනීමෙන් මෙම pipeline ක්‍රියා කරන බව සලකන්න; එය පිළිතුර ජනනය නොකරයි.

සාරාංශගත කිරීම

සාරාංශ කිරීම යනු පාඨයෙහි සඳහන් කර ඇති සියලුම වැදගත් අංගයන් (හෝ බොහෝමයක්) තබා ගනිමින් කෙටි පාඨයකට පාඨයක් අඩු කිරීමේ කාර්යයයි. මෙන්න උදාහරණයක්:

from transformers import pipeline

summarizer = pipeline("summarization")
summarizer(
    """
    America has changed dramatically during recent years. Not only has the number of
    graduates in traditional engineering disciplines such as mechanical, civil,
    electrical, chemical, and aeronautical engineering declined, but in most of
    the premier American universities engineering curricula now concentrate on
    and encourage largely the study of engineering science. As a result, there
    are declining offerings in engineering subjects dealing with infrastructure,
    the environment, and related issues, and greater concentration on high
    technology subjects, largely supporting increasingly complex scientific
    developments. While the latter is important, it should not be at the expense
    of more traditional engineering.

    Rapidly developing economies such as China and India, as well as other
    industrial countries in Europe and Asia, continue to encourage and advance
    the teaching of engineering. Both China and India, respectively, graduate
    six and eight times as many traditional engineers as does the United States.
    Other industrial countries at minimum maintain their output, while America
    suffers an increasingly serious decline in the number of engineering graduates
    and a lack of well-educated engineers.
"""
)
[{'summary_text': ' America has changed dramatically during recent years . The '
                  'number of engineering graduates in the U.S. has declined in '
                  'traditional engineering disciplines such as mechanical, civil '
                  ', electrical, chemical, and aeronautical engineering . Rapidly '
                  'developing economies such as China and India, as well as other '
                  'industrial countries in Europe and Asia, continue to encourage '
                  'and advance engineering .'}]

පාඨ උත්පාදනය සමඟ මෙන්, ඔබට ප්‍රතිඵලය සඳහා max_length හෝ min_length නියම කළ හැක.

පරිවර්තනය

පරිවර්තනය සඳහා, ඔබ කාර්ය නාමයෙන් ("translation_en_to_fr" වැනි) භාෂා යුගලයක් සපයන්නේ නම් ඔබට පෙරනිමි ආකෘතියක් භාවිතා කළ හැක, නමුත් පහසුම ක්‍රමය වන්නේ ඔබට ආකෘති කේන්ද්‍රය භාවිතා කිරීමට අවශ්‍ය ආකෘතිය තෝරා ගැනීමයි. අපි දැන් ප්‍රංශ භාෂාවෙන් ඉංග්‍රීසි භාෂාවට පරිවර්තනය කිරීමට උත්සාහ කරමු:

from transformers import pipeline

translator = pipeline("translation", model="Helsinki-NLP/opus-mt-fr-en")
translator("Ce cours est produit par Hugging Face.")
[{'translation_text': 'This course is produced by Hugging Face.'}]

පාඨ උත්පාදනය සහ සාරාංශ කිරීමේදී මෙන්, ඔබට ප්‍රතිඵලය සඳහා max_length හෝ min_length නියම කළ හැක.

✏️ අත්හදා බලන්න! වෙනත් භාෂාවලින් පරිවර්තන ආකෘති සොයන්න සහ පෙර වාක්‍ය විවිධ භාෂා කිහිපයකට පරිවර්තනය කිරීමට උත්සාහ කරන්න.

මෙතෙක් පෙන්වා ඇති pipelines බොහෝ දුරට නිරූපණ අරමුණු සඳහා ය. ඒවා විශේෂිත කාර්යයන් සඳහා වැඩසටහන්ගත කර ඇති අතර ඒවායේ වෙනස්කම් සිදු කළ නොහැක. මීළඟ පරිච්ඡේදයේදී, ඔබ pipeline() කාර්යක් තුළ ඇති දේ සහ එහි හැසිරීම අභිරුචිකරණය කරන්නේ කෙසේදැයි ඉගෙන ගනු ඇත.