"Fossies" - the Fresh Open Source Software Archive

Member "transformers-4.21.1/docs/source/it/autoclass_tutorial.mdx" (4 Aug 2022, 5898 Bytes) of package /linux/misc/transformers-4.21.1.tar.gz:


As a special service "Fossies" has tried to format the requested text file into HTML format (style: standard) with prefixed line numbers. Alternatively you can here view or download the uninterpreted source code file.

A hint: This file contains one or more very long lines, so maybe it is better readable using the pure text view mode that shows the contents as wrapped lines within the browser window.


    1 <!--Copyright 2022 The HuggingFace Team. All rights reserved.
    2 
    3 Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with
    4 the License. You may obtain a copy of the License at
    5 
    6 http://www.apache.org/licenses/LICENSE-2.0
    7 
    8 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on
    9 an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the
   10 specific language governing permissions and limitations under the License.
   11 -->
   12 
   13 # Carica istanze pre-allenate con AutoClass
   14 
   15 Con così tante architetture Transformer differenti, può essere sfidante crearne una per il tuo checkpoint. Come parte della filosofia centrale di 🤗 Transformers per rendere la libreria facile, semplice e flessibile da utilizzare, una `AutoClass` inferisce e carica automaticamente l'architettura corretta da un dato checkpoint. Il metodo `from_pretrained` ti permette di caricare velocemente un modello pre-allenato per qualsiasi architettura, così non devi utilizzare tempo e risorse per allenare un modello da zero. Produrre questo codice agnostico ai checkpoint significa che se il tuo codice funziona per un checkpoint, funzionerà anche per un altro checkpoint, purché sia stato allenato per un compito simile, anche se l'architettura è differente.
   16 
   17 <Tip>
   18 
   19 Ricorda, con architettura ci si riferisce allo scheletro del modello e con checkpoint ai pesi di una determinata architettura. Per esempio, [BERT](https://huggingface.co/bert-base-uncased) è un'architettura, mentre `bert-base-uncased` è un checkpoint. Modello è un termine generale che può significare sia architettura che checkpoint.
   20 
   21 </Tip>
   22 
   23 In questo tutorial, imparerai a:
   24 
   25 * Caricare un tokenizer pre-allenato.
   26 * Caricare un estrattore di caratteristiche (feature extractor, in inglese) pre-allenato.
   27 * Caricare un processore pre-allenato.
   28 * Caricare un modello pre-allenato.
   29 
   30 ## AutoTokenizer
   31 
   32 Quasi tutti i compiti di NLP iniziano con un tokenizer. Un tokenizer converte il tuo input in un formato che possa essere elaborato dal modello.
   33 
   34 Carica un tokenizer con [`AutoTokenizer.from_pretrained`]:
   35 
   36 ```py
   37 >>> from transformers import AutoTokenizer
   38 
   39 >>> tokenizer = AutoTokenizer.from_pretrained("xlm-roberta-base")
   40 ```
   41 
   42 Poi tokenizza il tuo input come mostrato in seguito:
   43 
   44 ```py
   45 >>> sequenza = "In un buco nel terreno viveva uno Hobbit."
   46 >>> print(tokenizer(sequenza))
   47 {'input_ids': [0, 360, 51, 373, 587, 1718, 54644, 22597, 330, 3269, 2291, 22155, 18, 5, 2],
   48  'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]}
   49 ```
   50 
   51 ## AutoFeatureExtractor
   52 
   53 Per compiti inerenti a audio e video, un feature extractor processa il segnale audio o l'immagine nel formato di input corretto.
   54 
   55 Carica un feature extractor con [`AutoFeatureExtractor.from_pretrained`]:
   56 
   57 ```py
   58 >>> from transformers import AutoFeatureExtractor
   59 
   60 >>> feature_extractor = AutoFeatureExtractor.from_pretrained(
   61 ...     "ehcalabres/wav2vec2-lg-xlsr-en-speech-emotion-recognition"
   62 ... )
   63 ```
   64 
   65 ## AutoProcessor
   66 
   67 Compiti multimodali richiedono un processore che combini i due tipi di strumenti di elaborazione. Per esempio, il modello [LayoutLMV2](model_doc/layoutlmv2) richiede un feature extractor per gestire le immagine e un tokenizer per gestire il testo; un processore li combina entrambi.
   68 
   69 Carica un processore con [`AutoProcessor.from_pretrained`]:
   70 
   71 ```py
   72 >>> from transformers import AutoProcessor
   73 
   74 >>> processor = AutoProcessor.from_pretrained("microsoft/layoutlmv2-base-uncased")
   75 ```
   76 
   77 ## AutoModel
   78 
   79 <frameworkcontent>
   80 <pt>
   81 Infine, le classi `AutoModelFor` ti permettono di caricare un modello pre-allenato per un determinato compito (guarda [qui](model_doc/auto) per una lista completa di compiti presenti). Per esempio, carica un modello per la classificazione di sequenze con [`AutoModelForSequenceClassification.from_pretrained`]:
   82 
   83 ```py
   84 >>> from transformers import AutoModelForSequenceClassification
   85 
   86 >>> model = AutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased")
   87 ```
   88 
   89 Semplicemente utilizza lo stesso checkpoint per caricare un'architettura per un task differente:
   90 
   91 ```py
   92 >>> from transformers import AutoModelForTokenClassification
   93 
   94 >>> model = AutoModelForTokenClassification.from_pretrained("distilbert-base-uncased")
   95 ```
   96 
   97 Generalmente, raccomandiamo di utilizzare la classe `AutoTokenizer` e la classe `AutoModelFor` per caricare istanze pre-allenate dei modelli. Questo ti assicurerà di aver caricato la corretta architettura ogni volta. Nel prossimo [tutorial](preprocessing), imparerai come utilizzare il tokenizer, il feature extractor e il processore per elaborare un dataset per il fine-tuning.
   98 
   99 </pt>
  100 <tf>
  101 Infine, le classi `TFAutoModelFor` ti permettono di caricare un modello pre-allenato per un determinato compito (guarda [qui](model_doc/auto) per una lista completa di compiti presenti). Per esempio, carica un modello per la classificazione di sequenze con [`TFAutoModelForSequenceClassification.from_pretrained`]:
  102 
  103 ```py
  104 >>> from transformers import TFAutoModelForSequenceClassification
  105 
  106 >>> model = TFAutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased")
  107 ```
  108 
  109 Semplicemente utilizza lo stesso checkpoint per caricare un'architettura per un task differente:
  110 
  111 ```py
  112 >>> from transformers import TFAutoModelForTokenClassification
  113 
  114 >>> model = TFAutoModelForTokenClassification.from_pretrained("distilbert-base-uncased")
  115 ```
  116 
  117 Generalmente, raccomandiamo di utilizzare la classe `AutoTokenizer` e la classe `TFAutoModelFor` per caricare istanze pre-allenate dei modelli. Questo ti assicurerà di aver caricato la corretta architettura ogni volta. Nel prossimo [tutorial](preprocessing), imparerai come utilizzare il tokenizer, il feature extractor e il processore per elaborare un dataset per il fine-tuning.
  118 </tf>
  119 </frameworkcontent>