TRANSCRIÇÃOSpanish

¿Qué es la VENTANA DE CONTEXTO de un Gran Modelo de Lenguaje?

9m 32s1,603 palavras251 segmentsSpanish

TRANSCRIÇÃO COMPLETA

0:00

el término ventana de contexto es un

0:02

concepto muy muy importante en los

0:04

grandes modelos de lenguaje Pues en

0:06

últimas determina la cantidad de texto

0:08

que estos modelos pueden procesar y

0:10

generar Así que es fundamental entender

0:12

este concepto Si queremos desarrollar

0:13

aplicaciones usando estos grandes

0:15

modelos de lenguaje Entonces en este

0:17

video vamos a entender Qué es la ventana

0:19

de contexto qué ocurre cuando superamos

0:21

los límites establecidos por esta

0:24

ventana y qué alternativas tenemos

0:25

cuando queremos procesar texto que es

0:28

más extenso que el límite establecido

0:30

por esta ventana de contexto Pero antes

0:33

de comenzar Los invito a visitar

0:34

codificando bits.com en donde

0:37

encontrarán la academia online con

0:38

cursos de Inteligencia artificial

0:39

ciencia de datos y Machine learning que

0:42

les permitirán construir su carrera en

0:44

estas áreas y todo por una suscripción

0:46

mensual de tan solo 10 dólares Así que

0:48

listo Comencemos

0:53

para entender Qué son las ventanas de

0:55

contexto necesitamos primero entender

0:56

Qué significa el concepto de contexto

0:59

cuando hablamos de los grandes modelos

1:01

de lenguaje recordemos que en un vídeo

1:03

anterior vimos que estos grandes modelos

1:05

de lenguaje se basan en las redes

1:07

Transformers un tipo de red neuronal

1:09

especializada en el procesamiento de

1:11

secuencias como lo es precisamente el

1:13

texto y recordemos que al momento de

1:16

procesar el texto estas redes no

1:18

analizan cada palabra de manera

1:20

individual sino que por el contrario

1:22

tienen en cuenta la relación de cada

1:24

palabra con las otras palabras del texto

1:26

y dependiendo de esto codifican

1:29

numéricamente esta información para

1:30

luego realizar el procesamiento por

1:33

ejemplo en la frase el perro está

1:35

jugando Mientras que el gato acaba de

1:37

comer y ahora duerme plácidamente para

1:40

determinar A qué sujeto se refiere la

1:42

palabra duerme la red Transformer debe

1:45

analizar la totalidad del texto y las

1:47

relaciones entre palabras a diferentes

1:49

niveles para determinar en últimas que

1:53

el sujeto es el gato y no el perro Así

1:55

que en últimas el contexto es la

1:57

relación que existe entre las diferentes

1:59

palabras y que permite interpretar y

2:02

codificar adecuadamente la información

2:03

del texto analizado por el modelo

2:06

teniendo claro este sencillo concepto

2:08

Ahora sí podemos ver qué son las

2:11

ventanas de contexto

2:15

de forma sencilla podemos Definir la

2:17

ventana de contexto de un gran modelo de

2:20

lenguaje como la cantidad de tokens que

2:22

el modelo puede procesar Al momento de

2:25

interpretar una secuencia de texto

2:28

Y acá es necesario que veamos algunos

2:30

detalles de esta definición en primer

2:33

lugar Hablemos del término tokens al

2:35

cual le dedique un video anterior

2:37

recordemos que un gran modelo de

2:40

lenguaje antes de procesar el texto lo

2:42

divide en pequeños segmentos que pueden

2:44

corresponder a una palabra o a una

2:47

porción de una palabra

2:48

estos segmentos son precisamente los

2:51

tokens y la cantidad de tokens que se

2:53

obtendrá a partir de un texto depende

2:56

del idioma por ejemplo para gpt en

2:59

promedio un token equivale a siete

3:02

caracteres en inglés a9 en español y a

3:05

12 en chino

3:07

en segundo lugar el término

3:08

procesamiento se refiere a la cantidad

3:10

de tokens que el modelo puede recibir a

3:13

la entrada y generará la salida Así que

3:16

en últimas la ventana de contexto es el

3:18

número total de tokens que el modelo del

3:21

lenguaje podrá procesar en un momento

3:22

determinado

3:24

entendamos esto con un ejemplo el modelo

3:27

gpt 3.5 de Open Ey que es la base de la

3:31

aplicación chat gpt tiene una ventana de

3:33

contexto de 4097 tokens esto quiere

3:37

decir que si escribo una pregunta y

3:39

espero una respuesta de esta aplicación

3:41

al sumar el texto introducido y generado

3:45

este no podrá sobrepasar los 4.097

3:48

tokens que son poco menos de 37 mil

3:52

caracteres en español así que la ventana

3:55

de contexto nos impone un límite en la

3:57

cantidad de texto que podemos introducir

4:00

y esperar a la salida del modelo

4:03

Y esto es súper importante cuando

4:05

queremos desarrollar aplicaciones con

4:07

este tipo de modelos pues simplemente

4:09

nos indica que no podemos introducir una

4:11

cantidad arbitraria de texto y esperar

4:14

que mágicamente el modelo nos genere la

4:16

respuesta esperada

4:20

bien en este punto ya tenemos Claro que

4:22

es la ventana de contexto Pero qué

4:24

pasaría por ejemplo si en una aplicación

4:26

determinada introducimos al modelo un

4:28

texto que supere ese límite establecido

4:31

por la ventana de contexto pues

4:33

simplemente lo que ocurriría es que en

4:35

primer lugar el modelo no podría ni

4:37

siquiera procesar el texto de entrada y

4:39

mucho menos generar una respuesta por

4:41

ejemplo supongamos que queremos usar

4:43

chat gpt para que nos genere el resumen

4:45

del texto completo de Don Quijote de la

4:48

Mancha entonces copiamos y pegamos el

4:50

texto completo y le pedimos que haga el

4:53

resumen

4:54

y al hacer la solicitud de chat gpt

4:56

vemos que nos genera un mensaje de error

4:58

indicando que el texto introducido es

5:00

demasiado extenso es decir que ni

5:03

siquiera nos genera una respuesta Lo que

5:05

ocurre en este caso es que el texto

5:07

completo de Don Quijote de la Mancha

5:08

contiene más de 2 millones de caracteres

5:11

es decir más de 226.000 tokens y como la

5:16

ventana de contexto de gpt 3.5 el modelo

5:19

usado por charge pity es de 4096 tokens

5:23

pues simplemente no resulta posible

5:25

procesar esa cantidad de texto

5:28

y también lo que puede ocurrir

5:30

Generalmente es que cuando ese texto

5:31

supere el límite de la ventana de

5:33

contexto al ingresarlo al modelo pues

5:35

este va a truncar el texto es decir lo

5:37

va a recortar para garantizar que quepa

5:40

dentro de esa ventana de contexto y que

5:42

haya un espacio suficiente para generar

5:43

la respuesta sin embargo en este caso lo

5:46

más probable es que la respuesta del

5:47

modelo no sea la adecuada porque el

5:49

texto de entrada está incompleto

5:54

acabamos de ver que es clave que el

5:56

texto a procesar o a generar por parte

5:58

del modelo sea acorde con el tamaño de

6:01

la ventana de contexto pero también

6:02

puede ocurrir que tengamos un texto

6:04

demasiado extenso y que queramos

6:06

procesar ese texto con un modelo

6:07

determinado Así que el primer paso es

6:10

asegurarnos de que el modelo que vamos a

6:12

utilizar para procesar ese texto tenga

6:14

una ventana de contexto del tamaño

6:16

adecuado para la longitud del texto que

6:18

queremos procesar por ejemplo modelos

6:20

como gpt 3.5 y 4.0 tienen ventanas de

6:24

contexto que van de los 4.096 a los

6:28

32.768 tokens pero recientemente modelos

6:32

como Cloud de la empresa antropic tienen

6:35

ventanas de contexto de hasta 100.000

6:37

tokens Así que en principio existen

6:39

diferentes alternativas y tamaños de

6:42

ventanas de contexto que se podrían

6:44

ajustar a nuestras necesidades

6:46

sin embargo muchas veces el texto que

6:48

queremos procesar puede incluso

6:50

sobrepasar ese límite de los modelos

6:52

existentes Así que en este caso podemos

6:54

usar otras alternativas para intentar

6:56

hacer este procesamiento la primera de

6:58

ellas consiste simplemente en dividir el

7:00

texto en pequeños fragmentos lo que se

7:03

conoce como Shocking donde cada

7:05

fragmento no supera el tamaño de la

7:07

ventana del contexto del modelo que

7:08

estemos usando

7:10

otra alternativa es combinar el chunking

7:13

con la generación de resúmenes por cada

7:15

fragmento de texto se genera un breve

7:17

resumen y luego todos los resúmenes se

7:20

concatenan en un nuevo texto de menor

7:22

extensión que el original y que puede

7:24

caber en la ventana de contexto

7:27

y una tercera alternativa es el uso de

7:30

bases de datos vectoriales en un próximo

7:33

vídeo hablaré de este tipo de bases de

7:34

datos Pero la idea general es que lo que

7:37

se hace es tomar el texto extenso y

7:39

representarlo usando lo que se conoce

7:41

como en bedings que son simplemente

7:43

vectores o arreglos de números de estos

DESBLOQUEAR MAIS

Registe-se gratuitamente para aceder a funcionalidades premium

VISUALIZADOR INTERATIVO

Assista ao vídeo com legendas sincronizadas, sobreposição ajustável e controlo total da reprodução.

REGISTE-SE GRATUITAMENTE PARA DESBLOQUEAR

RESUMO DE IA

Obtenha um resumo instantâneo gerado por IA do conteúdo do vídeo, pontos-chave e conclusões.

REGISTE-SE GRATUITAMENTE PARA DESBLOQUEAR

TRADUZIR

Traduza a transcrição para mais de 100 idiomas com um clique. Baixe em qualquer formato.

REGISTE-SE GRATUITAMENTE PARA DESBLOQUEAR

MAPA MENTAL

Visualize a transcrição como um mapa mental interativo. Entenda a estrutura rapidamente.

REGISTE-SE GRATUITAMENTE PARA DESBLOQUEAR

CONVERSAR COM A TRANSCRIÇÃO

Faça perguntas sobre o conteúdo do vídeo. Obtenha respostas com tecnologia de IA diretamente da transcrição.

REGISTE-SE GRATUITAMENTE PARA DESBLOQUEAR

APROVEITE MAIS DE SUAS TRANSCRIÇÕES

Inscreva-se gratuitamente e desbloqueie o visualizador interativo, resumos de IA, traduções, mapas mentais e muito mais. Não é necessário cartão de crédito.

    ¿Qué es la VENTAN… - Transcrição Completa | YouTubeTranscript.dev