Diferencia entre revisiones de «Página principal»
Ir a la navegación
Ir a la búsqueda
Sin resumen de edición |
LLM Wiki ingest |
||
| Línea 1: | Línea 1: | ||
'''LLM Wiki''' es una base de conocimiento personal construida incrementalmente por LLM a partir de fuentes curadas. | |||
Basado en el [https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f concepto LLM Wiki de Andrej Karpathy]: en vez de RAG (re-descubrir conocimiento cada consulta), el LLM '''construye y mantiene incrementalmente un wiki persistente''' con archivos markdown interconectados. | |||
== | == Conceptos == | ||
{| class="wikitable" | |||
* [ | |- | ||
* [ | ! Concepto !! Descripción | ||
* | |- | ||
* | | [[Aprendizaje por refuerzo]] || Agentes que aprenden por ensayo y error en entornos | ||
|- | |||
| [[Razonamiento en LLMs]] || ¿Pueden los LLMs realizar razonamiento genuino de múltiples pasos? | |||
|- | |||
| [[Pensamiento crítico]] || Reflexión cognitiva en trabajo asistido por IA — la paradoja de confianza | |||
|- | |||
| [[Colapso de modelos]] || '''NUEVO''' — Proceso degenerativo cuando los modelos se entrenan con datos generados por IA | |||
|} | |||
== Fuentes procesadas == | |||
{| class="wikitable sortable" | |||
|- | |||
! Fuente !! Autores !! Año !! Tema principal | |||
|- | |||
| [[La Era de la Experiencia]] || Silver, Sutton || 2025 || Transición de datos humanos a aprendizaje experiencial | |||
|- | |||
| [[La Ilusión de la Ilusión de Pensar]] || Opus, Lawsen || 2025 || Fallas de evaluación confundidas con fallas de razonamiento | |||
|- | |||
| [[Impacto de GenAI en el Pensamiento Crítico]] || Lee et al. (Microsoft) || 2025 || Cómo GenAI reduce el pensamiento crítico en trabajadores | |||
|- | |||
| [[Colapso de modelos (paper)|Colapso de modelos]] || Shumailov et al. || 2024 || '''NUEVO''' — Modelos colapsan al entrenarse con datos recursivos | |||
|} | |||
== Conexiones entre fuentes == | |||
Las cuatro fuentes procesadas hasta ahora revelan una tensión central en la IA moderna: | |||
* '''El problema''': [[Colapso de modelos|El colapso de modelos]] demuestra que los datos humanos existentes se están agotando y contaminando con contenido AI-generado | |||
* '''La solución propuesta''': [[La Era de la Experiencia]] argumenta que los agentes deben aprender de su propia experiencia, no de datos estáticos | |||
* '''La evaluación''': [[La Ilusión de la Ilusión de Pensar]] muestra que nuestros métodos para evaluar estas capacidades son deficientes | |||
* '''El impacto humano''': [[Impacto de GenAI en el Pensamiento Crítico|El estudio de Microsoft]] revela que los humanos ya están delegando pensamiento a la IA, creando un ciclo de dependencia | |||
== Estadísticas == | |||
* '''Documentos procesados''': 4 / ~213 | |||
* '''Páginas de conceptos''': 4 | |||
* '''Páginas de fuentes''': 4 | |||
* '''Última actualización''': 5 de abril de 2026 | |||
[[Categoría:Índice]] | |||
Revisión actual - 23:09 5 abr 2026
LLM Wiki es una base de conocimiento personal construida incrementalmente por LLM a partir de fuentes curadas.
Basado en el concepto LLM Wiki de Andrej Karpathy: en vez de RAG (re-descubrir conocimiento cada consulta), el LLM construye y mantiene incrementalmente un wiki persistente con archivos markdown interconectados.
Conceptos
| Concepto | Descripción |
|---|---|
| Aprendizaje por refuerzo | Agentes que aprenden por ensayo y error en entornos |
| Razonamiento en LLMs | ¿Pueden los LLMs realizar razonamiento genuino de múltiples pasos? |
| Pensamiento crítico | Reflexión cognitiva en trabajo asistido por IA — la paradoja de confianza |
| Colapso de modelos | NUEVO — Proceso degenerativo cuando los modelos se entrenan con datos generados por IA |
Fuentes procesadas
| Fuente | Autores | Año | Tema principal |
|---|---|---|---|
| La Era de la Experiencia | Silver, Sutton | 2025 | Transición de datos humanos a aprendizaje experiencial |
| La Ilusión de la Ilusión de Pensar | Opus, Lawsen | 2025 | Fallas de evaluación confundidas con fallas de razonamiento |
| Impacto de GenAI en el Pensamiento Crítico | Lee et al. (Microsoft) | 2025 | Cómo GenAI reduce el pensamiento crítico en trabajadores |
| Colapso de modelos | Shumailov et al. | 2024 | NUEVO — Modelos colapsan al entrenarse con datos recursivos |
Conexiones entre fuentes
Las cuatro fuentes procesadas hasta ahora revelan una tensión central en la IA moderna:
- El problema: El colapso de modelos demuestra que los datos humanos existentes se están agotando y contaminando con contenido AI-generado
- La solución propuesta: La Era de la Experiencia argumenta que los agentes deben aprender de su propia experiencia, no de datos estáticos
- La evaluación: La Ilusión de la Ilusión de Pensar muestra que nuestros métodos para evaluar estas capacidades son deficientes
- El impacto humano: El estudio de Microsoft revela que los humanos ya están delegando pensamiento a la IA, creando un ciclo de dependencia
Estadísticas
- Documentos procesados: 4 / ~213
- Páginas de conceptos: 4
- Páginas de fuentes: 4
- Última actualización: 5 de abril de 2026