ABSCHRIFTSpanish

¿Qué es la VENTANA DE CONTEXTO de un Gran Modelo de Lenguaje?

9m 32s1,603 Wörter251 segmentsSpanish

VOLLSTÄNDIGE ABSCHRIFT

0:00

el término ventana de contexto es un

0:02

concepto muy muy importante en los

0:04

grandes modelos de lenguaje Pues en

0:06

últimas determina la cantidad de texto

0:08

que estos modelos pueden procesar y

0:10

generar Así que es fundamental entender

0:12

este concepto Si queremos desarrollar

0:13

aplicaciones usando estos grandes

0:15

modelos de lenguaje Entonces en este

0:17

video vamos a entender Qué es la ventana

0:19

de contexto qué ocurre cuando superamos

0:21

los límites establecidos por esta

0:24

ventana y qué alternativas tenemos

0:25

cuando queremos procesar texto que es

0:28

más extenso que el límite establecido

0:30

por esta ventana de contexto Pero antes

0:33

de comenzar Los invito a visitar

0:34

codificando bits.com en donde

0:37

encontrarán la academia online con

0:38

cursos de Inteligencia artificial

0:39

ciencia de datos y Machine learning que

0:42

les permitirán construir su carrera en

0:44

estas áreas y todo por una suscripción

0:46

mensual de tan solo 10 dólares Así que

0:48

listo Comencemos

0:53

para entender Qué son las ventanas de

0:55

contexto necesitamos primero entender

0:56

Qué significa el concepto de contexto

0:59

cuando hablamos de los grandes modelos

1:01

de lenguaje recordemos que en un vídeo

1:03

anterior vimos que estos grandes modelos

1:05

de lenguaje se basan en las redes

1:07

Transformers un tipo de red neuronal

1:09

especializada en el procesamiento de

1:11

secuencias como lo es precisamente el

1:13

texto y recordemos que al momento de

1:16

procesar el texto estas redes no

1:18

analizan cada palabra de manera

1:20

individual sino que por el contrario

1:22

tienen en cuenta la relación de cada

1:24

palabra con las otras palabras del texto

1:26

y dependiendo de esto codifican

1:29

numéricamente esta información para

1:30

luego realizar el procesamiento por

1:33

ejemplo en la frase el perro está

1:35

jugando Mientras que el gato acaba de

1:37

comer y ahora duerme plácidamente para

1:40

determinar A qué sujeto se refiere la

1:42

palabra duerme la red Transformer debe

1:45

analizar la totalidad del texto y las

1:47

relaciones entre palabras a diferentes

1:49

niveles para determinar en últimas que

1:53

el sujeto es el gato y no el perro Así

1:55

que en últimas el contexto es la

1:57

relación que existe entre las diferentes

1:59

palabras y que permite interpretar y

2:02

codificar adecuadamente la información

2:03

del texto analizado por el modelo

2:06

teniendo claro este sencillo concepto

2:08

Ahora sí podemos ver qué son las

2:11

ventanas de contexto

2:15

de forma sencilla podemos Definir la

2:17

ventana de contexto de un gran modelo de

2:20

lenguaje como la cantidad de tokens que

2:22

el modelo puede procesar Al momento de

2:25

interpretar una secuencia de texto

2:28

Y acá es necesario que veamos algunos

2:30

detalles de esta definición en primer

2:33

lugar Hablemos del término tokens al

2:35

cual le dedique un video anterior

2:37

recordemos que un gran modelo de

2:40

lenguaje antes de procesar el texto lo

2:42

divide en pequeños segmentos que pueden

2:44

corresponder a una palabra o a una

2:47

porción de una palabra

2:48

estos segmentos son precisamente los

2:51

tokens y la cantidad de tokens que se

2:53

obtendrá a partir de un texto depende

2:56

del idioma por ejemplo para gpt en

2:59

promedio un token equivale a siete

3:02

caracteres en inglés a9 en español y a

3:05

12 en chino

3:07

en segundo lugar el término

3:08

procesamiento se refiere a la cantidad

3:10

de tokens que el modelo puede recibir a

3:13

la entrada y generará la salida Así que

3:16

en últimas la ventana de contexto es el

3:18

número total de tokens que el modelo del

3:21

lenguaje podrá procesar en un momento

3:22

determinado

3:24

entendamos esto con un ejemplo el modelo

3:27

gpt 3.5 de Open Ey que es la base de la

3:31

aplicación chat gpt tiene una ventana de

3:33

contexto de 4097 tokens esto quiere

3:37

decir que si escribo una pregunta y

3:39

espero una respuesta de esta aplicación

3:41

al sumar el texto introducido y generado

3:45

este no podrá sobrepasar los 4.097

3:48

tokens que son poco menos de 37 mil

3:52

caracteres en español así que la ventana

3:55

de contexto nos impone un límite en la

3:57

cantidad de texto que podemos introducir

4:00

y esperar a la salida del modelo

4:03

Y esto es súper importante cuando

4:05

queremos desarrollar aplicaciones con

4:07

este tipo de modelos pues simplemente

4:09

nos indica que no podemos introducir una

4:11

cantidad arbitraria de texto y esperar

4:14

que mágicamente el modelo nos genere la

4:16

respuesta esperada

4:20

bien en este punto ya tenemos Claro que

4:22

es la ventana de contexto Pero qué

4:24

pasaría por ejemplo si en una aplicación

4:26

determinada introducimos al modelo un

4:28

texto que supere ese límite establecido

4:31

por la ventana de contexto pues

4:33

simplemente lo que ocurriría es que en

4:35

primer lugar el modelo no podría ni

4:37

siquiera procesar el texto de entrada y

4:39

mucho menos generar una respuesta por

4:41

ejemplo supongamos que queremos usar

4:43

chat gpt para que nos genere el resumen

4:45

del texto completo de Don Quijote de la

4:48

Mancha entonces copiamos y pegamos el

4:50

texto completo y le pedimos que haga el

4:53

resumen

4:54

y al hacer la solicitud de chat gpt

4:56

vemos que nos genera un mensaje de error

4:58

indicando que el texto introducido es

5:00

demasiado extenso es decir que ni

5:03

siquiera nos genera una respuesta Lo que

5:05

ocurre en este caso es que el texto

5:07

completo de Don Quijote de la Mancha

5:08

contiene más de 2 millones de caracteres

5:11

es decir más de 226.000 tokens y como la

5:16

ventana de contexto de gpt 3.5 el modelo

5:19

usado por charge pity es de 4096 tokens

5:23

pues simplemente no resulta posible

5:25

procesar esa cantidad de texto

5:28

y también lo que puede ocurrir

5:30

Generalmente es que cuando ese texto

5:31

supere el límite de la ventana de

5:33

contexto al ingresarlo al modelo pues

5:35

este va a truncar el texto es decir lo

5:37

va a recortar para garantizar que quepa

5:40

dentro de esa ventana de contexto y que

5:42

haya un espacio suficiente para generar

5:43

la respuesta sin embargo en este caso lo

5:46

más probable es que la respuesta del

5:47

modelo no sea la adecuada porque el

5:49

texto de entrada está incompleto

5:54

acabamos de ver que es clave que el

5:56

texto a procesar o a generar por parte

5:58

del modelo sea acorde con el tamaño de

6:01

la ventana de contexto pero también

6:02

puede ocurrir que tengamos un texto

6:04

demasiado extenso y que queramos

6:06

procesar ese texto con un modelo

6:07

determinado Así que el primer paso es

6:10

asegurarnos de que el modelo que vamos a

6:12

utilizar para procesar ese texto tenga

6:14

una ventana de contexto del tamaño

6:16

adecuado para la longitud del texto que

6:18

queremos procesar por ejemplo modelos

6:20

como gpt 3.5 y 4.0 tienen ventanas de

6:24

contexto que van de los 4.096 a los

6:28

32.768 tokens pero recientemente modelos

6:32

como Cloud de la empresa antropic tienen

6:35

ventanas de contexto de hasta 100.000

6:37

tokens Así que en principio existen

6:39

diferentes alternativas y tamaños de

6:42

ventanas de contexto que se podrían

6:44

ajustar a nuestras necesidades

6:46

sin embargo muchas veces el texto que

6:48

queremos procesar puede incluso

6:50

sobrepasar ese límite de los modelos

6:52

existentes Así que en este caso podemos

6:54

usar otras alternativas para intentar

6:56

hacer este procesamiento la primera de

6:58

ellas consiste simplemente en dividir el

7:00

texto en pequeños fragmentos lo que se

7:03

conoce como Shocking donde cada

7:05

fragmento no supera el tamaño de la

7:07

ventana del contexto del modelo que

7:08

estemos usando

7:10

otra alternativa es combinar el chunking

7:13

con la generación de resúmenes por cada

7:15

fragmento de texto se genera un breve

7:17

resumen y luego todos los resúmenes se

7:20

concatenan en un nuevo texto de menor

7:22

extensión que el original y que puede

7:24

caber en la ventana de contexto

7:27

y una tercera alternativa es el uso de

7:30

bases de datos vectoriales en un próximo

7:33

vídeo hablaré de este tipo de bases de

7:34

datos Pero la idea general es que lo que

7:37

se hace es tomar el texto extenso y

7:39

representarlo usando lo que se conoce

7:41

como en bedings que son simplemente

7:43

vectores o arreglos de números de estos

MEHR FREISCHALTEN

Melden Sie sich kostenlos an, um Premium-Funktionen zu nutzen

INTERAKTIVER VIEWER

Sehen Sie sich das Video mit synchronisierten Untertiteln, anpassbarer Überlagerung und voller Wiedergabesteuerung an.

KOSTENLOS ANMELDEN ZUM FREISCHALTEN

KI-ZUSAMMENFASSUNG

Erhalten Sie eine sofortige KI-generierte Zusammenfassung des Videoinhalts, der wichtigsten Punkte und Erkenntnisse.

KOSTENLOS ANMELDEN ZUM FREISCHALTEN

ÜBERSETZEN

Übersetzen Sie das Transkript mit einem Klick in über 100 Sprachen. Download in jedem Format.

KOSTENLOS ANMELDEN ZUM FREISCHALTEN

MIND MAP

Visualisieren Sie das Transkript als interaktive Mind Map. Verstehen Sie die Struktur auf einen Blick.

KOSTENLOS ANMELDEN ZUM FREISCHALTEN

CHAT MIT TRANSKRIPT

Stellen Sie Fragen zum Videoinhalt. Erhalten Sie Antworten von der KI direkt aus dem Transkript.

KOSTENLOS ANMELDEN ZUM FREISCHALTEN

HOLEN SIE MEHR AUS IHREN TRANSKRIPTEN HERAUS

Melden Sie sich kostenlos an und schalten Sie interaktiven Viewer, KI-Zusammenfassungen, Übersetzungen, Mind Maps und mehr frei. Keine Kreditkarte erforderlich.

    ¿Qué es la VE… - Vollständiges Transkript | YouTubeTranscript.dev