Diferencia entre revisiones de «Página principal»

De LLM Wiki
Ir a la navegación Ir a la búsqueda
Sin resumen de edición
 
LLM Wiki ingest
 
Línea 1: Línea 1:
<strong>MediaWiki se ha instalado.</strong>
'''LLM Wiki''' es una base de conocimiento personal construida incrementalmente por LLM a partir de fuentes curadas.


Consulta la [https://www.mediawiki.org/wiki/Special:MyLanguage/Help:Contents guía] para obtener información sobre el uso del software wiki.
Basado en el [https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f concepto LLM Wiki de Andrej Karpathy]: en vez de RAG (re-descubrir conocimiento cada consulta), el LLM '''construye y mantiene incrementalmente un wiki persistente''' con archivos markdown interconectados.


== Primeros pasos ==
== Conceptos ==
* [https://www.mediawiki.org/wiki/Special:MyLanguage/Manual:Configuration_settings Lista de ajustes de configuración]
{| class="wikitable"
* [https://www.mediawiki.org/wiki/Special:MyLanguage/Manual:FAQ Preguntas frecuentes sobre MediaWiki]
|-
* [https://lists.wikimedia.org/postorius/lists/mediawiki-announce.lists.wikimedia.org/ Lista de correo de anuncios de publicación de MediaWiki]
! Concepto !! Descripción
* [https://www.mediawiki.org/wiki/Special:MyLanguage/Localisation#Translation_resources Traducir MediaWiki a tu idioma]
|-
* [https://www.mediawiki.org/wiki/Special:MyLanguage/Manual:Combating_spam Aprende a combatir el spam en tu wiki]
| [[Aprendizaje por refuerzo]] || Agentes que aprenden por ensayo y error en entornos
|-
| [[Razonamiento en LLMs]] || ¿Pueden los LLMs realizar razonamiento genuino de múltiples pasos?
|-
| [[Pensamiento crítico]] || Reflexión cognitiva en trabajo asistido por IA — la paradoja de confianza
|-
| [[Colapso de modelos]] || '''NUEVO''' — Proceso degenerativo cuando los modelos se entrenan con datos generados por IA
|}
 
== Fuentes procesadas ==
{| class="wikitable sortable"
|-
! Fuente !! Autores !! Año !! Tema principal
|-
| [[La Era de la Experiencia]] || Silver, Sutton || 2025 || Transición de datos humanos a aprendizaje experiencial
|-
| [[La Ilusión de la Ilusión de Pensar]] || Opus, Lawsen || 2025 || Fallas de evaluación confundidas con fallas de razonamiento
|-
| [[Impacto de GenAI en el Pensamiento Crítico]] || Lee et al. (Microsoft) || 2025 || Cómo GenAI reduce el pensamiento crítico en trabajadores
|-
| [[Colapso de modelos (paper)|Colapso de modelos]] || Shumailov et al. || 2024 || '''NUEVO''' — Modelos colapsan al entrenarse con datos recursivos
|}
 
== Conexiones entre fuentes ==
Las cuatro fuentes procesadas hasta ahora revelan una tensión central en la IA moderna:
 
* '''El problema''': [[Colapso de modelos|El colapso de modelos]] demuestra que los datos humanos existentes se están agotando y contaminando con contenido AI-generado
* '''La solución propuesta''': [[La Era de la Experiencia]] argumenta que los agentes deben aprender de su propia experiencia, no de datos estáticos
* '''La evaluación''': [[La Ilusión de la Ilusión de Pensar]] muestra que nuestros métodos para evaluar estas capacidades son deficientes
* '''El impacto humano''': [[Impacto de GenAI en el Pensamiento Crítico|El estudio de Microsoft]] revela que los humanos ya están delegando pensamiento a la IA, creando un ciclo de dependencia
 
== Estadísticas ==
* '''Documentos procesados''': 4 / ~213
* '''Páginas de conceptos''': 4
* '''Páginas de fuentes''': 4
* '''Última actualización''': 5 de abril de 2026
 
[[Categoría:Índice]]

Revisión actual - 23:09 5 abr 2026

LLM Wiki es una base de conocimiento personal construida incrementalmente por LLM a partir de fuentes curadas.

Basado en el concepto LLM Wiki de Andrej Karpathy: en vez de RAG (re-descubrir conocimiento cada consulta), el LLM construye y mantiene incrementalmente un wiki persistente con archivos markdown interconectados.

Conceptos

Concepto Descripción
Aprendizaje por refuerzo Agentes que aprenden por ensayo y error en entornos
Razonamiento en LLMs ¿Pueden los LLMs realizar razonamiento genuino de múltiples pasos?
Pensamiento crítico Reflexión cognitiva en trabajo asistido por IA — la paradoja de confianza
Colapso de modelos NUEVO — Proceso degenerativo cuando los modelos se entrenan con datos generados por IA

Fuentes procesadas

Fuente Autores Año Tema principal
La Era de la Experiencia Silver, Sutton 2025 Transición de datos humanos a aprendizaje experiencial
La Ilusión de la Ilusión de Pensar Opus, Lawsen 2025 Fallas de evaluación confundidas con fallas de razonamiento
Impacto de GenAI en el Pensamiento Crítico Lee et al. (Microsoft) 2025 Cómo GenAI reduce el pensamiento crítico en trabajadores
Colapso de modelos Shumailov et al. 2024 NUEVO — Modelos colapsan al entrenarse con datos recursivos

Conexiones entre fuentes

Las cuatro fuentes procesadas hasta ahora revelan una tensión central en la IA moderna:

  • El problema: El colapso de modelos demuestra que los datos humanos existentes se están agotando y contaminando con contenido AI-generado
  • La solución propuesta: La Era de la Experiencia argumenta que los agentes deben aprender de su propia experiencia, no de datos estáticos
  • La evaluación: La Ilusión de la Ilusión de Pensar muestra que nuestros métodos para evaluar estas capacidades son deficientes
  • El impacto humano: El estudio de Microsoft revela que los humanos ya están delegando pensamiento a la IA, creando un ciclo de dependencia

Estadísticas

  • Documentos procesados: 4 / ~213
  • Páginas de conceptos: 4
  • Páginas de fuentes: 4
  • Última actualización: 5 de abril de 2026