A hint: This file contains one or more very long lines, so maybe it is better readable using the pure text view mode that shows the contents as wrapped lines within the browser window.
1 <!--Copyright 2020 The HuggingFace Team. All rights reserved. 2 3 Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with 4 the License. You may obtain a copy of the License at 5 6 http://www.apache.org/licenses/LICENSE-2.0 7 8 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on 9 an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the 10 specific language governing permissions and limitations under the License. 11 --> 12 13 # BERTología 14 15 Hay un creciente campo de estudio empeñado en la investigación del funcionamiento interno de los transformers de gran escala como BERT 16 (que algunos llaman "BERTología"). Algunos buenos ejemplos de este campo son: 17 18 19 - BERT Rediscovers the Classical NLP Pipeline por Ian Tenney, Dipanjan Das, Ellie Pavlick: 20 https://arxiv.org/abs/1905.05950 21 - Are Sixteen Heads Really Better than One? por Paul Michel, Omer Levy, Graham Neubig: https://arxiv.org/abs/1905.10650 22 - What Does BERT Look At? An Analysis of BERT's Attention por Kevin Clark, Urvashi Khandelwal, Omer Levy, Christopher D. 23 Manning: https://arxiv.org/abs/1906.04341 24 25 Para asistir al desarrollo de este nuevo campo, hemos incluido algunas features adicionales en los modelos BERT/GPT/GPT-2 para 26 ayudar a acceder a las representaciones internas, principalmente adaptado de la gran obra de Paul Michel 27 (https://arxiv.org/abs/1905.10650): 28 29 30 - accediendo a todos los hidden-states de BERT/GPT/GPT-2, 31 - accediendo a todos los pesos de atención para cada head de BERT/GPT/GPT-2, 32 - adquiriendo los valores de salida y gradientes de las heads para poder computar la métrica de importancia de las heads y realizar la poda de heads como se explica 33 en https://arxiv.org/abs/1905.10650. 34 35 Para ayudarte a entender y usar estas features, hemos añadido un script específico de ejemplo: [bertology.py](https://github.com/huggingface/transformers/tree/main/examples/research_projects/bertology/run_bertology.py) mientras extraes información y cortas un modelo pre-entrenado en 36 GLUE.