Preguntas con Tag: gpt-2

con Transformador Generativo Pre-entrenado 2 (GPT-2). No use con GPT-3 o la biblioteca de etiquetado de anuncios (GPT).

¿Qué memoria usa Transformer Decoder?

He estado leyendo mucho acerca de los transformadores y la auto atención y he visto tanto BERT como GPT-2 son una versión más nueva que sólo utiliza un transformador de encoder (BERT) y transformad
python pytorch decoder transformer-model gpt-2
codealchemy
3 años, 4 meses, 29 días