Preguntas con Tag: nlp

El procesamiento del lenguaje natural (NLP) es un subcampo de inteligencia artificial que implica transformar o extraer información útil de datos del lenguaje natural. Los métodos incluyen el aprendizaje automático y ...

En triples de grado de conocimiento / Extracción de información ¿Cómo representamos una frase imperativa negativa en triple formato?

En triples de grado de conocimiento / Extracción de información ¿Cómo representa una frase imperativa negativa en triple formato? Eg. sentence :" No instalar el Gadget X en un lugar húmedo o
nlp information-extraction nlp-question-answering knowledge-graph
codecrusaderx
3 años, 4 meses, 28 días

NLP usando NLTK tomar la unión entre la lista tokenizada y el archivo csv

mast_dict = pd.read_csv('C:/Users/ZAM/Desktop/LoughranMcDonald_MasterDictionary_2018.csv') stop_words = set(stopwords.words('english')) #print(stopwords.words('english')) filtered_text =
python nlp nltk
syntaxsculptor
3 años, 4 meses, 29 días

Parse emoji a palabras nlp

Mi tarea es analizar emojis a las palabras, así que dado un texto I was🥇 place at volleyball last year Necesito analizarlo. I was 1st_place_medal at volleyball last year.<
python nlp
techmaestro
3 años, 4 meses, 28 días

¿Cómo combinar X_test, y test, y predicciones después de la predicción de análisis de texto?

Después de usar logitics Reg on text analytics, I was trying to combine the X_test, y_arr_test (label), and y_predictions to ONE dataframe, but don't know how to do it. Necesito ayuda. ' '</p
python pandas scikit-learn nlp concatenation
debugdynamo05ee
3 años, 4 meses, 28 días

PyTorch: "TypeError: Tipo comprado Error en el proceso obrero DataLoader 0."

Estoy tratando de implementar el modelo RoBERTa para el análisis de sentimientos. Primero, declaré GPReviewDataset para crear un Dataset PyTorch. MAX_LEN = 160 class GPReviewDataset(D
python-3.x deep-learning nlp bert-language-model roberta
codejuggernaut
3 años, 4 meses, 27 días

Spacy Entity Reconocimiento no impresión

Podría alguien ayudarme. Estoy teniendo un problema con el reconocimiento de la entidad Spacy # import spacy # define a language module import spacy nlp = spacy.load('en') # create 5
python nlp spacy
syntaxsavvy
3 años, 5 meses, 0 días

error gensim con .most_similar(), ypyter kernel restarting

No puedo conseguir que la función .most_similar() funcione. He probado tanto la versión Gensim 3.8.3 y ahora estoy en la versión beta 4.0 . Estoy trabajando en el tutorial de Word2Vec Modelo en cad
python-3.x machine-learning nlp gensim word2vec
pixelpioneerbbb5
3 años, 4 meses, 29 días

Multi Head Atención: Correct implementation of Linear Transformations of Q, K, V

Estoy implementando Multi-Head Self-Attention en Pytorch ahora. Miré un par de implementaciones y parecen un poco mal, o al menos no estoy seguro por qué se hace de la manera que e
neural-network nlp pytorch bert-language-model attention-model
algoarchitect
3 años, 4 meses, 29 días

Calcular similitud cosina entre conjuntos de documentos y palabras clave (por ejemplo, "innovar" "fast")

Tengo un conjunto de documentos que describen diferentes dimensiones de la cultura corporativa. Ejemplos a continuación: sent1=['innovative','culture','fast','moving','company'] sent2
python nlp gensim
compilerchieftain
3 años, 4 meses, 29 días

Trato hecho Palabra de vocabulario con Gensim preentrenado GloVe

Estoy trabajando en una asignación NLP y cargué los vectores GloVe proporcionados por Gensim: import gensim.downloader glove_vectors = gensim.downloader.load('glove-twitter-25') </cod
nlp stanford-nlp gensim word-embedding
bytebison
3 años, 4 meses, 27 días

¿Se distribuye la implementación de Word2Vec Spark?

Soy relativamente nuevo en Spark y tengo algunas dificultades para entender Spark ML. El problema que tengo es que tengo 3TB de texto, que quiero entrenar un modelo de Word2Vec. El servidor e
apache-spark pyspark nlp word2vec apache-spark-mllib
binarymaestro
3 años, 4 meses, 29 días

Calcular frecuencias de término en un gran cuerpo eficientemente independientemente de los límites de documentos

Tengo un corpus de casi 2m documentos. Quiero calcular el término frecuencias de los términos en todo el cuerpo, independientemente de los límites del documento. Un enfoque ingenuo sería comb
r nlp tm
binarybrainiac
3 años, 4 meses, 28 días

Insertar comas después de las palabras primera y segunda en cada línea usando Python?

Tengo un archivo .txt y necesito convertirlo a CSV. Este es el código que estoy usando para convertir el archivo: import pandas as pd wb = pd.read_csv('12.txt', encoding='u
python regex csv text nlp
devepicenter
3 años, 4 meses, 29 días