Probabilidad de reglas gramaticales y parser libre de contexto
8 Questions
1 Views

Choose a study mode

Play Quiz
Study Flashcards
Spaced Repetition
Chat to Lesson

Podcast

Play an AI-generated podcast conversation about this lesson

Questions and Answers

¿Cómo se descompone la frase 'me gusta comer manzanas tempranas' en las entradas del modelo Skip-gram?

  • [[gusta,me],1] [[me, gusta],1] [[me, estudiar],1]
  • [[gusta,ab],0] [[gusta,pde],0] [[me,xyz],0]
  • [[me, comer],gusta] [[gusta,manzanas],comer] [[comer,tempranas],manzanas]
  • [[me, gusta],1] [[me, estudiar],1] [[gusta,me],1] (correct)

¿Cuál es la característica principal de la arquitectura de Bolsa de Palabras Continuas en Word2Vec?

  • Emplea transformadores en las capas de atención.
  • Utiliza ventanas de entrada. (correct)
  • Es un modelo bidireccional.
  • Predice las palabras circundantes a partir de la palabra central.

¿Qué función cumplen los embeddings de palabras en Word2Vec?

  • Generar nuevos modelos preentrenados.
  • Aprender las relaciones semánticas entre las palabras. (correct)
  • Facilitar la clasificación de textos.
  • Crear distancias grandes entre palabras semejantes.

¿Qué modelo es una evolución de los modelos ELMO y analiza las palabras antes y después de cada término a analizar?

<p>BERT (B)</p> Signup and view all the answers

¿Qué característica diferencia a GPT-3 de BERT?

<p>Requiere afinado para identificar el contexto. (D)</p> Signup and view all the answers

¿Qué variación de BERT reduce el número de parámetros y mejora el coste computacional sin perder precisión?

<p>ALBERT (B)</p> Signup and view all the answers

¿Cuál es la diferencia principal entre los modelos BERT y XLNET?

<p>XLNET aumenta el tiempo de entrenamiento pero gana precisión. (A)</p> Signup and view all the answers

'Word2Vec' es una técnica de procesamiento de lenguaje natural que se basa en:

<p>Convertir las palabras en vectores embedding. (A)</p> Signup and view all the answers

More Like This

Use Quizgecko on...
Browser
Browser