Podcast
Questions and Answers
¿Cómo se descompone la frase 'me gusta comer manzanas tempranas' en las entradas del modelo Skip-gram?
¿Cómo se descompone la frase 'me gusta comer manzanas tempranas' en las entradas del modelo Skip-gram?
- [[gusta,me],1] [[me, gusta],1] [[me, estudiar],1]
- [[gusta,ab],0] [[gusta,pde],0] [[me,xyz],0]
- [[me, comer],gusta] [[gusta,manzanas],comer] [[comer,tempranas],manzanas]
- [[me, gusta],1] [[me, estudiar],1] [[gusta,me],1] (correct)
¿Cuál es la caracterÃstica principal de la arquitectura de Bolsa de Palabras Continuas en Word2Vec?
¿Cuál es la caracterÃstica principal de la arquitectura de Bolsa de Palabras Continuas en Word2Vec?
- Emplea transformadores en las capas de atención.
- Utiliza ventanas de entrada. (correct)
- Es un modelo bidireccional.
- Predice las palabras circundantes a partir de la palabra central.
¿Qué función cumplen los embeddings de palabras en Word2Vec?
¿Qué función cumplen los embeddings de palabras en Word2Vec?
- Generar nuevos modelos preentrenados.
- Aprender las relaciones semánticas entre las palabras. (correct)
- Facilitar la clasificación de textos.
- Crear distancias grandes entre palabras semejantes.
¿Qué modelo es una evolución de los modelos ELMO y analiza las palabras antes y después de cada término a analizar?
¿Qué modelo es una evolución de los modelos ELMO y analiza las palabras antes y después de cada término a analizar?
¿Qué caracterÃstica diferencia a GPT-3 de BERT?
¿Qué caracterÃstica diferencia a GPT-3 de BERT?
¿Qué variación de BERT reduce el número de parámetros y mejora el coste computacional sin perder precisión?
¿Qué variación de BERT reduce el número de parámetros y mejora el coste computacional sin perder precisión?
¿Cuál es la diferencia principal entre los modelos BERT y XLNET?
¿Cuál es la diferencia principal entre los modelos BERT y XLNET?
'Word2Vec' es una técnica de procesamiento de lenguaje natural que se basa en:
'Word2Vec' es una técnica de procesamiento de lenguaje natural que se basa en: