Preguntas con Tag: bert-language-model

BERT, o Representaciones Bidirectionales del Codificador de Transformers, es un método de pre-entrenamiento de las representaciones lingüísticas que obtiene resultados de última generación en una amplia gama de...

PyTorch: "TypeError: Tipo comprado Error en el proceso obrero DataLoader 0."

Estoy tratando de implementar el modelo RoBERTa para el análisis de sentimientos. Primero, declaré GPReviewDataset para crear un Dataset PyTorch. MAX_LEN = 160 class GPReviewDataset(D
python-3.x deep-learning nlp bert-language-model roberta
codejuggernaut
3 años, 4 meses, 28 días

Multi Head Atención: Correct implementation of Linear Transformations of Q, K, V

Estoy implementando Multi-Head Self-Attention en Pytorch ahora. Miré un par de implementaciones y parecen un poco mal, o al menos no estoy seguro por qué se hace de la manera que e
neural-network nlp pytorch bert-language-model attention-model
algoarchitect
3 años, 4 meses, 29 días