"Fossies" - the Fresh Open Source Software Archive

Member "transformers-4.21.1/docs/source/es/autoclass_tutorial.mdx" (4 Aug 2022, 6015 Bytes) of package /linux/misc/transformers-4.21.1.tar.gz:


As a special service "Fossies" has tried to format the requested text file into HTML format (style: standard) with prefixed line numbers. Alternatively you can here view or download the uninterpreted source code file. See also the last Fossies "Diffs" side-by-side code changes report for "autoclass_tutorial.mdx": 4.19.4_vs_4.20.0.

A hint: This file contains one or more very long lines, so maybe it is better readable using the pure text view mode that shows the contents as wrapped lines within the browser window.


    1 <!--Copyright 2022 The HuggingFace Team. All rights reserved.
    2 
    3 Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with
    4 the License. You may obtain a copy of the License at
    5 
    6 http://www.apache.org/licenses/LICENSE-2.0
    7 
    8 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on
    9 an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the
   10 specific language governing permissions and limitations under the License.
   11 -->
   12 
   13 # Carga instancias preentrenadas con un AutoClass
   14 
   15 Con tantas arquitecturas diferentes de Transformer puede ser retador crear una para tu checkpoint. Como parte de la filosof√≠a central de ūü§ó Transformers para hacer que la biblioteca sea f√°cil, simple y flexible de usar; una `AutoClass` autom√°ticamente infiere y carga la arquitectura correcta desde un checkpoint dado. El m√©todo `from_pretrained` te permite cargar r√°pidamente un modelo preentrenado para cualquier arquitectura, por lo que no tendr√°s que dedicar tiempo y recursos para entrenar uno desde cero. Producir este tipo de c√≥digo con checkpoint implica que si funciona con uno, funcionar√° tambi√©n con otro (siempre que haya sido entrenado para una tarea similar) incluso si la arquitectura es distinta.
   16 
   17 <Tip>
   18 
   19 Recuerda, la arquitectura se refiere al esqueleto del modelo y los checkpoints son los pesos para una arquitectura dada. Por ejemplo, [BERT](https://huggingface.co/bert-base-uncased) es una arquitectura, mientras que `bert-base-uncased` es un checkpoint. Modelo es un término general que puede significar una arquitectura o un checkpoint.
   20 
   21 </Tip>
   22 
   23 En este tutorial, aprender√°s a:
   24 
   25 * Cargar un tokenizador pre-entrenado.
   26 * Cargar un extractor de características (feature extractor en inglés) pre-entrenado.
   27 * Cargar un procesador pre-entrenado.
   28 * Cargar un modelo pre-entrenado.
   29 
   30 ## AutoTokenizer
   31 
   32 Casi cualquier tarea de Procesamiento de Lenguaje Natural comienza con un tokenizador. Un tokenizador convierte tu input a un formato que puede ser procesado por el modelo.
   33 
   34 Carga un tokenizador con [`AutoTokenizer.from_pretrained`]:
   35 
   36 ```py
   37 >>> from transformers import AutoTokenizer
   38 
   39 >>> tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
   40 ```
   41 
   42 Luego tokeniza tu input como lo mostrado a continuación:
   43 
   44 ```py
   45 >>> sequence = "In a hole in the ground there lived a hobbit."
   46 >>> print(tokenizer(sequence))
   47 {'input_ids': [101, 1999, 1037, 4920, 1999, 1996, 2598, 2045, 2973, 1037, 7570, 10322, 4183, 1012, 102], 
   48  'token_type_ids': [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], 
   49  'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]}
   50 ```
   51 
   52 ## AutoFeatureExtractor
   53 
   54 Para tareas de audio y visi√≥n, un extractor de caracter√≠sticas procesa la se√Īal de audio o imagen al formato de input correcto.
   55 
   56 Carga un extractor de características con [`AutoFeatureExtractor.from_pretrained`]:
   57 
   58 ```py
   59 >>> from transformers import AutoFeatureExtractor
   60 
   61 >>> feature_extractor = AutoFeatureExtractor.from_pretrained(
   62 ...     "ehcalabres/wav2vec2-lg-xlsr-en-speech-emotion-recognition"
   63 ... )
   64 ```
   65 
   66 ## AutoProcessor
   67 
   68 Las tareas multimodales requieren un procesador que combine dos tipos de herramientas de preprocesamiento. Por ejemplo, el modelo [LayoutLMV2](model_doc/layoutlmv2) requiere que un extractor de características maneje las imágenes y que un tokenizador maneje el texto; un procesador combina ambas.
   69 
   70 Carga un procesador con [`AutoProcessor.from_pretrained`]:
   71 
   72 ```py
   73 >>> from transformers import AutoProcessor
   74 
   75 >>> processor = AutoProcessor.from_pretrained("microsoft/layoutlmv2-base-uncased")
   76 ```
   77 
   78 ## AutoModel
   79 
   80 <frameworkcontent>
   81 <pt>
   82 Finalmente, las clases `AutoModelFor` te permiten cargar un modelo preentrenado para una tarea dada (revisa [aquí](model_doc/auto) para conocer la lista completa de tareas disponibles). Por ejemplo, cargue un modelo para clasificación de secuencias con [`AutoModelForSequenceClassification.from_pretrained`]:
   83 
   84 ```py
   85 >>> from transformers import AutoModelForSequenceClassification
   86 
   87 >>> model = AutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased")
   88 ```
   89 
   90 Reutiliza f√°cilmente el mismo checkpoint para cargar una aquitectura para alguna tarea diferente:
   91 
   92 ```py
   93 >>> from transformers import AutoModelForTokenClassification
   94 
   95 >>> model = AutoModelForTokenClassification.from_pretrained("distilbert-base-uncased")
   96 ```
   97 
   98 Generalmente recomendamos utilizar las clases `AutoTokenizer` y `AutoModelFor` para cargar instancias pre-entrenadas de modelos. √Čsto asegurar√° que cargues la arquitectura correcta en cada ocasi√≥n. En el siguiente [tutorial](preprocessing), aprende a usar tu tokenizador reci√©n cargado, el extractor de caracter√≠sticas y el procesador para preprocesar un dataset para fine-tuning.
   99 </pt>
  100 <tf>
  101 Finalmente, la clase `TFAutoModelFor` te permite cargar tu modelo pre-entrenado para una tarea dada (revisa [aquí](model_doc/auto) para conocer la lista completa de tareas disponibles). Por ejemplo, carga un modelo para clasificación de secuencias con [`TFAutoModelForSequenceClassification.from_pretrained`]:
  102 
  103 ```py
  104 >>> from transformers import TFAutoModelForSequenceClassification
  105 
  106 >>> model = TFAutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased")
  107 ```
  108 
  109 Reutiliza f√°cilmente el mismo checkpoint para cargar una aquitectura para alguna tarea diferente:
  110 
  111 ```py
  112 >>> from transformers import TFAutoModelForTokenClassification
  113 
  114 >>> model = TFAutoModelForTokenClassification.from_pretrained("distilbert-base-uncased")
  115 ```
  116 
  117 Generalmente recomendamos utilizar las clases `AutoTokenizer` y `TFAutoModelFor` para cargar instancias de modelos pre-entrenados. √Čsto asegurar√° que cargues la arquitectura correcta cada vez. En el siguiente [tutorial](preprocessing), aprende a usar tu tokenizador reci√©n cargado, el extractor de caracter√≠sticas y el procesador para preprocesar un dataset para fine-tuning.
  118 </tf>
  119 </frameworkcontent>