Apuntes de Filosofía de la Ciencia – Paul Hoyningen-Huene, Univ. de Hannover, Semestre de Invierno 2010
Estos apuntes fueron tomados a mano en el curso gratuito de Filosofía de la Ciencia impartido por el profesor y filósofo alemán Paul Hoyningen-Huene. Al final hay información adicional extraida de las sugerencias de chatbots como Claude y ChatGPT alimentadas con el curso, motivado por la posibilidad de haber dejado fallas en la información recopilada.
CURSO GRATUITO EN YOUTUBE https://youtube.com/playlist?list=PLtvASwaz8fGhIGX2mTYCh6elNUUVYIN_7&si=ANQCFJ07w9wu9Dvk
SLIDES https://www.academia.edu/6386913/Introduction_to_Philosophy_of_Science_winter_term_2010
Preguntas centrales de la filosofía de la ciencia ¿Qué es la ciencia? ¿Por qué es un tipo distinto de conocimiento? ¿Por qué es mejor en algunos sentidos? ¿Cuáles son los aspectos característicos del conocimiento científico?
El curso presentará cuatro respuestas específicas a estas cuestiones que han sido dadas durante los últimos 100 años.
- Inductivismo
- Deductivismo
- Teoría de los Paradigmas
- Teoría Sistemática
Luego de la presentación de cada concepto se mostrará cierto criticismo para levantar nuevas preguntas.
CLASE 1: Inductivismo
En la ciencia y en la ingeniería, encontramos enunciados singulares y enunciados generales.
En los enunciados singulares hablamos de objetos singulares.
- Los enunciados singulares verdaderos expresan hechos singulares, observables o medibles.
- Son facilmente verificables ya que hablan de algo particular y localizable.
- Entonces es fácil verificar el enunciado, esto es, encontrar si es verdad.
- Ejemplo: “Este cisne es blanco”, “El objeto cayó desde 5 metros”.
Enunciados generales
Se refieren a una cantidad indefinida de casos o situaciones. Hablan de relaciones constantes entre variables, regularidades empíricas o principios universales. No pueden ser verificados directamente como los enunciados singulares, porque su alcance trasciende lo observado.
- Tipos comunes:
- Leyes naturales (Ej.: Ley de la gravedad)
- Teorías científicas (Ej.: Teoría cuántica, teoría de la evolución)
- Hipótesis (antes de ser testeadas)
- Regularidades empíricas (relaciones generales observadas repetidamente)
- Modelos (representaciones simplificadas de fenómenos complejos)
Problema fundamental: transición de singular a general
Es sencillo verificar enunciados singulares, pero ¿cómo justificar el paso de lo particular a lo general?
Ejemplo clásico:
“He observado muchos cisnes blancos → Por lo tanto, todos los cisnes son blancos.
Los enunciados generales hacen referencia a una cantidad indefinida de hechos.
Los enunciados generales no pueden ser verificados de la misma forma en que se hace con enunciados singulares, debido a que se refieren a una cantidad indefinida de hechos.
Por lo tanto, el cambio de de enunciados singulares a enunciados generales es problemática. Este salto inductivo presenta un problema lógico: no hay garantía de que las observaciones futuras no contradigan la generalización. El problema con el enunciado general es que habla sobre hechos y generaliza sus propiedades en los hechos que no han sido vistos todavía.
Pero necesitamos conocimiento general, necesitamos enunciados generales a pesar del problema que ellos nos dan. Este conocimiento es usado en la ciencia para:
- Explicar fenómenos
- Hacer predicciones
- Aplicar tecnológicamente los resultados
El problema de la inducción
¿Cómo podemos evaluar la solidez de un enunciado general?
Consiste en preguntarnos:
“¿Es posible pasar legítimamente de enunciados singulares a enunciados generales? Y si es así, ¿bajo qué condiciones?
Para el inductivismo, el conocimiento científico es obtenido en un proceso de dos pasos:
Observar cuidadosamente los hechos singulares sin ningún prejuicio teórico y articularlos en un enunciado de observaciones singulares. Este enunciado de observaciones singulares puede entregar una descripción de los hechos, objetiva e intersubjetiva.
Generalizar enunciados de observaciones singulares a hipótesis generales, leyes, teorías o modelos. Esto es válido con tres condiciones: C1. El número de observaciones debe ser grande. C2. Las observaciones deben ser hechas bajo varias condiciones diferentes. De otro modo observaremos cosas que dependen de condiciones particulares y no son propiedades de la muestra observada. C3. Ninguno de los enunciados de observaciones deben contradecir la hipótesis general.
Importancia de los enunciados generales
Son indispensables para:
- Dar explicaciones (ej.: por qué cae un cuerpo)
- Hacer predicciones (ej.: cuánto tiempo tardará en caer)
- Desarrollar aplicaciones técnicas (ej.: diseño de puentes, satélites, etc.)
Estructura de explicaciones y predicciones
Tanto explicar como predecir siguen un patrón común:
- Descripción de un caso particular : S0 (situación inicial observable)
- Aplicación de una ley o hipótesis general : “Cuando ocurre S , ocurre K "
- Conclusión específica : K0
Ejemplo práctico:
- S0 : Dejo caer un objeto desde 10 metros.
- Ley general: La aceleración gravitacional es constante (g=9.8m/s2 ).
- Conclusión: Puedo predecir el tiempo de caída.
Sin leyes generales, este tipo de razonamiento no sería posible.
Dudas
¿Que determina que el número de observaciones es suficientemente grande? ¿Cuales y cuantas condiciones diferentes deberán tener las observaciones? ¿Cual teoría de la verdad usa el inductivismo? ¿Que porcentaje de predicciones es aceptable para los enunciados generales?
CLASE 2: Inductivismo
Fundamentos del método científico según el inductivismo
Según el inductivismo, la investigación científica consiste en un procedimiento inductivo mediante el cual se obtienen hipótesis científicas y deducciones lógicas a partir de estas hipótesis mediante las cuales se dan predicciones, explicaciones y la posibilidad de aplicaciones técnicas.
El inductivismo sostiene que la ciencia se construye mediante un proceso de dos etapas:
- Observación sistemática y neutral de hechos particulares.
- Inducción hacia leyes, teorías o modelos generales.
Esto permite obtener:
- Explicaciones de fenómenos
- Predicciones de eventos futuros
- Aplicaciones prácticas en ingeniería, medicina, tecnología, etc.
¿Por qué la ciencia es más confiable que otros tipos de conocimiento?
Para el inductivista, la diferencia radica en el rigor metodológico del proceso:
- Las observaciones son cuidadosas, controladas y replicables.
- Las generalizaciones están respaldadas por un gran número de datos obtenidos bajo distintas condiciones.
Esto hace que el conocimiento científico sea más objetivo y menos dependiente de creencias personales o autoridad.
El conocimiento científico es diferente y más confiable que otras formas de conocimiento, porque los dos pasos que lo generan son mucho más rigurosamente controlados que los pasos que nos llevan a otras formas de conocimiento.
Historia del inductivismo
Desde el nacimiento de la ciencia moderna en el siglo XVII (con figuras como Francis Bacon, Galileo y Newton), hasta bien entrado el siglo XX, el inductivismo fue ampliamente aceptado como el modelo ideal del método científico .
Las ciencias naturales eran incluso llamadas ciencias inductivas , destacando la importancia del razonamiento inductivo en su construcción.
Filosofía de la ciencia normativa versos descriptiva
El objetivo de la ciencia es hacer conocimiento más confiable.
Dos formas de responder “¿Qué es la ciencia?”:
- Descriptiva: estudia cómo actúan realmente los científicos, basándose en observaciones empíricas de su comportamiento.
- Normativa: establece reglas ideales que deberían seguirse para producir conocimiento confiable.
Seguimos un procedimiento normativo para explicar que es la ciencia, por lo tanto, la filosofía de la ciencia El inductivismo pertenece a la filosofía de la ciencia normativa , ya que propone un modelo prescriptivo de cómo debería proceder la investigación científica.
Pero hay preguntas importantes concernientes a la ética y otros campos que no pueden ser abordados desde la investigación empírica de lo que los científicos hacen. Esto no nos puede decir nada acerca de lo que los científicos deberían hacer.
Problemas del inductivismo
- La condición C2 es vaga y si se toma literal, nunca puede ser satisfecha: no es claro cuáles condiciones deben ser variadas y cuáles no.
Podemos pensar que una cosa y es una función de x. $y = f(x)$
Pero podría ocurrir que y sea función de otras variables: $y = f(x,y,z,h,i,j,k)$
Necesitamos experimentar con todas estas variables para probar si influyen en y o no. ¿Cuál sería el límite de lo que deberíamos considerar como una condición importante o irrelevante que no tenga efecto en nuestro objeto de estudio?
Entonces no podemos ir tras la generalización inductiva si no sabemos cuales o cuantas condiciones tienen efecto, porque son infinitas si no se dan ciertas directivas; infinitas condiciones pueden ser variadas de tal modo que habría infinito tiempo impidiendonos proceder con la generalización inductiva.
- La observación de hechos deben ser dirigidas de alguna manera: solo los hechos relevantes deberían ser observados. Pero la evaluación de los hechos como relevantes o no, presuponen elementos teóricos en nuestro procedimiento, ya que dichas estimaciones no salen de la inducción.
Por lo tanto, es imposible realmente recolectar hechos libres de teoría, que son relevantes para la teoría en cuestión.
Con el fin de saber qué cosas son hechos relevantes, necesitamos tener ciertos elementos teóricos.
El sueño de empezar desde algo seguro y luego ir a la teorética por medio de generalización inductiva, no existe porque todas las observaciones y la elección de qué es lo relevante, están, de alguna manera, impregnadas con teoría.
No hay tal cosa como las observaciones científicas libres de teoría.
La ciencia es más difícil que lo que sugiere el inductivismo.
Aún los enunciados de observaciones más inocentes, también involucran teoría, con la cual podemos cometer errores. Una vez que tenemos teoría, esta puede ser falsada.
- Incluso un enunciado observacional singular no es libre de teoría. Por ejemplo, un enunciado como «esta planta de la especie $X$…» usa el concepto de «planta» y «especie».
Estos conceptos están cargados de teoría: se asume que las plantas son distintas de los animales (y otras teorías más), y que el concepto de especie asume que las entidades biológicas pueden ser ordenadas en unas clases bien definidas.
Incluso los enunciados de hechos observables más primitivos implican teoría en nuestras mentes.
- La justificación de la generalización inductiva es probablemente imposible. La mayoría de intentos de justificarlo terminan en circularidades. Ejemplo: «las generalizaciones inductivas están justificadas porque la naturaleza está ordenada por regularidades (leyes)». Esta afirmación es provista por el inductivismo; podemos observar regularidades y hacer generalizaciones.
Aún hay más: ¿Como sabemos que estas regularidades se seguirán manteniendo en el futuro?
Asumir estas regularidades que nosotros observamos desde un pensamiento inductivista, generalmente funciona como justificación acerca de la afirmación sobre las cosas que no hemos estudiado todavía, pero no siempre funciona. Hay muy malas generalizaciones.
- De acuerdo al inductivismo, el desacuerdo entre científicos sólo puede ser el resultado de errores; un desacuerdo racional es imposible.
Un desacuerdo racional es cuando los científicos tienen diferentes argumentos y conclusiones y quizás ambos tienen un poco de verdad. El inductivismo es tan ajustado que no tiene espacio para argumentos, es solo un error de uno de los científicos en un paso del inductivismo.
- El inductivismo es ciertamente no generalmente válido.
La doble hélice de la teoría del ADN, la ecuación de fluidos de la ley de gases, no cuenta con casos singulares observables cuando las teorías surgieron. El camino desde las observaciones a la teoría es mucho más complicado, hay más entre medio que simplemente ir de uno a otro; este procedimiento además, no puede ser justificado mediante generalizaciones inductivas.
Conclusión
Aunque útil como guía, el inductivismo tiene importantes límites:
- No explica cómo surgen las teorías nuevas . ¿De dónde vienen las ideas antes de observar?
- La observación nunca es completamente neutral : siempre está influida por teorías previas.
- Problema de la inducción (según Hume y Popper) : no hay base lógica definitiva para generalizar a partir de casos observados.
Además, no puede resolver cuestiones éticas o normativas a través de observaciones empíricas. Lo que es no implica necesariamente lo que debe ser . Esta distinción es crucial en campos como la bioética o la política científica.
Las dificultades 2 y 3 no son letales para el inductivismo. Ellas muestran que una construcción del conocimiento científico desde una base libre de teoría, es una ilusión.
Por lo tanto, el inductivismo pierde atractivo porque los elementos teóricos entran directamente en el nivel de la observación.
Dudas
¿Qué determina lo que es riguroso metodológicamente o no? Toda metodología parte de supuestos, creencias personales y sesgos. ¿Como se determina cuanto logra superar el inducivismo?
CLASE 3: Deductivismo
Superación del inductivismo
El inductivismo plantea un modelo normativo del método científico basado en dos etapas:
- Observación cuidadosa de hechos singulares , considerados seguros, objetivos e independientes de teorías previas.
- Generalización inductiva hacia hipótesis generales, leyes o teorías, bajo ciertas condiciones (número suficiente de observaciones, diversidad de condiciones, ausencia de contradicciones).
Sin embargo, este modelo presenta varios problemas:
- La inducción no puede garantizar la verdad de las generalizaciones . Un número finito de observaciones no asegura que todas las instancias futuras confirmen la regla.
- No hay bases lógicas sólidas para justificar el paso de lo particular a lo general (problema clásico de la inducción según Hume).
- Las observaciones nunca son completamente neutrales : están siempre influenciadas por conceptos teóricos y marcos interpretativos.
- En áreas avanzadas de la ciencia, muchas teorías se refieren a entidades no observables directamente (átomos, campos gravitacionales, genes), lo cual desafía el modelo inductivista.
Por estas razones, necesitamos una nueva teoría del método científico que:
- Reconozca la presencia inevitable de teoría en toda observación.
- Acepte que las hipótesis pueden surgir de formas no controladas (intuiciones, sueños, analogías).
- Establezca criterios claros para testear empíricamente dichas hipótesis.
El deductivismo trata de evadir las consecuencias del inductivismo permitiendo que los elementos teóricos entren en la ciencia a cualquier nivel, y evadiendo la generalización inductiva porque parece injustificable.
Deductivismo
Es un intento de desarrollar una posición que evade las dificultades que asaltan al inductivismo. Acepta que los elementos teóricos entran a la ciencia en todos los niveles, y que las generalizaciones inductivas carecen de una propia justificación.
También llamado falsacionismo o racionalismo crítico , el deductivismo fue desarrollado principalmente por Karl Popper en el siglo XX.
Este enfoque rechaza el modelo inductivo de construcción del conocimiento y propone:
- Las teorías no se construyen a partir de observaciones , sino que surgen como conjeturas explicativas .
- Lo que sí debe ser riguroso es el proceso de testeo empírico de dichas teorías.
- Las teorías deben ser empíricamente falsables , es decir, deben admitir la posibilidad de ser refutadas por datos empíricos.
Acepta la necesidad de la justificación de enunciados generales, pero no por medio de generalizaciones inductivas.
Su idea básica es que las teorías no son construidas desde datos libres de teoría, pero que se testean si o si con datos.
Deductivismo e inductivismo comparten la visión de la explicación científica, predicción y aplicación técnica.
Criterio de demarcación
Un elemento fundamental del falsacionismo es el criterio de demarcación , que establece qué tipo de afirmaciones pueden considerarse científicas:
“Una hipótesis es científica si y solo si es empíricamente falsable .
Esto implica que:
- Debe existir alguna situación observable que, si ocurriera, probaría que la hipótesis es falsa.
- Las hipótesis metafísicas, religiosas o seudocientíficas no cumplen esta condición porque no pueden ser puestas a prueba empíricamente.
- No basta con que una hipótesis sea compatible con los datos: debe arriesgarse a ser refutada por ellos.
Importante: una hipótesis falsable no es necesariamente verdadera, ni comprobada. Solo es candidata legítima para la investigación científica.
Para establecer que un procedimiento de prueba es aplicable, las hipótesis científicas, teorías, etc, deben cumplir condiciones específicas.
En el criterio de demarcación, una hipótesis científica no es necesariamente algo confirmado por la ciencia, sólo significa que admite procedimientos científicos de prueba.
Si algo no está relacionado de alguna manera con los datos empíricos, no pertenece a las Ciencias Naturales o a la Ingeniería. Podría ser que pertenezca a las matemáticas. Pero si todo lo empírico puede ser asumido bajo una hipótesis, no puede ser empíricamente refutada por lo que no es una hipótesis científica.
La cualidad principal para entrar al dominio de las ciencias es que deberá ser testable. Si la hipótesis sobrevive al método científico, es otro asunto. Una hipótesis científica debe ser empíricamente arriesgada: siempre debe haber un riesgo de que por medio de la evidencia empírica se demuestre su falsedad; es decir que pueden chocar con los datos empíricos.
Para el inductivismo el proceso de producir hipótesis es uno gobernado por leyes (c1-c3). Pero para el deductivismo la producción de hipótesis no está restringida mientras la hipótesis resultante sea falsable empíricamente.
Ejemplo histórico: La estructura del benceno
Por ejemplo, la estructura del Benceno como con forma de anillo. Lo hizo a partir de un sueño en frente a su fogata y la propuso como tarea a sus asistentes para buscar la forma de corroborar si el Benceno tenía o no esa estructura.
Dimitri Mendeleiev y August Kekulé propusieron modelos químicos basados en intuiciones, sueños o analogías, no en procesos inductivos regulares.
- Kekulé soñó con una serpiente mordiéndose la cola , lo que le sugirió que el anillo benzénico era cíclico.
- Esto no fue el resultado de una acumulación de observaciones, sino de una hipótesis creativa.
- Lo importante no fue cómo surgió la idea, sino que se pudo testear experimentalmente.
- La hipótesis se elaboró de una manera no controlada y esto nos es irrelevante, lo que importa es que puede testearse contra los datos.
Popper destaca que el origen de las hipótesis no importa: lo crucial es que sean contrastables.
Literatura
Chalmers, A.F. (1999): What is This Thing Called Science? Third Edition. Indianapolis: Hackett (especially chapters 1 - 4)
Loose, John (1993): A Historical Introduction to the Philosophy of Science. 3rd ed. Oxford: Oxford University Press (an overview over the historical development of philosophy of science)
Salmon. M. H./J. Earman/C. Glymour/J.G. Lenoxx/P. Machamer/J.E. McGuire/J.D. Norton/W.C. Salmon/K.F. Schaffner (1992): Introduction to the Philosophy of Science. Englewood Cliffs NJ: Prentice-Hall (a book on an advanced level)
CLASE 4: Testeo de hipótesis deductivas
La herramienta principal para la prueba empírica de las hipótesis científicas es la deducción lógica. Desde la hipótesis general, se deducen afirmaciones específicas que pueden ser comparadas con los datos empíricos.
Por ejemplo: Ley de Ohm: $R =UI$
Se deduce: $U1/frac1=U2I2$
Para un pedazo específico de materia, por simple manipulación matemática tales ecuaciones pueden ser deducidas. Para un voltaje específico dividido una corriente específica, tenemos que son iguales al voltaje dividido la corriente, ambas de un material específico. La resistencia es constante para cualquier razón de voltaje y corriente de un material. Al principio de la investigación se puede investigar la veracidad de la ley de Ohm a partir de las consecuencias de la hipótesis principal.
En otras palabras, tendremos datos que interpretaremos con una hipótesis general, luego deduciremos desde la hipótesis general, ley o teoría, una hipótesis que podamos comparar con la información. Si no hay coherencia con los datos, la hipótesis fue falsada, no puede ser verdadera. De otro modo la hipótesis se mantiene en la ciencia mientras no sea falsada.
¿Cómo funciona el método deductivo?
El falsacionismo utiliza la deducción lógica para contrastar hipótesis con la realidad.
Estructura del razonamiento:
- Se parte de una hipótesis general (por ejemplo, una ley física).
- Se deduce de ella una predicción específica que pueda compararse con datos observables.
- Se diseña un experimento o se recopilan datos para contrastar esa predicción.
- Si los datos contradicen la predicción:
- La hipótesis se falsa , y debe rechazarse o modificarse.
- Si los datos coinciden con la predicción:
- La hipótesis sobrevive provisionalmente, pero no queda confirmada .
Ejemplo: Ley de Ohm
Hipótesis general: R=IU Deducción: Para un conductor dado, la relación entre voltaje y corriente debe ser constante. Testeo: Medimos distintos valores de U e I . Si la relación varía, la hipótesis se falsa.
La ciencia según el deductivismo
Para Popper, la ciencia es:
- Una empresa crítica y tentativa , que busca refutar más que confirmar.
- Libre de dogmas : cualquier teoría puede ser cuestionada.
- Dinámica: las teorías aceptadas hoy pueden ser superadas mañana.
- No acumulativa en sentido absoluto : el progreso científico no es lineal, sino mediante conjeturas y refutaciones.
Esto es abordado por Karl Popper en su libro de 1963 ‘Refutaciones y conjeturas’.
Consecuencia: falibilismo
A pesar de las pruebas críticas de una hipótesis dada, esta nunca se volverá absolutamente cierta, incluso si pasa todas las pruebas sin ser falsada. Nunca se excluye que se invente una nueva prueba que falsee la hipótesis a pesar de que ahora las hipótesis pasen las pruebas.
Esto es diferente a las matemáticas que, desde axiomas se pueden deducir enunciados de los cuales podemos estar seguros que mientras tengamos esos axiomas, la teoría será verdadera.
Esto implicará que el conocimiento científico nunca sea infalible, es decir, que no es absolutamente cierto. Siempre existe la posibilidad de que sea falso por lo que nunca habrán verdades absolutas.
La infalibilidad de la ciencia se mantuvo durante miles de años hasta el siglo XIX tardío, donde la Teoría de Relatividad Especial y la Mecánica Cuántica demostraron la falibilidad de la Física, o mas bien sus límites, poniendo en evidencia que esta era falsa en ciertos rangos de energía y distancia o para describir el mundo subatómico.
En consecuencia del deducitivismo, la ciencia es un conjunto de hipótesis aceptadas hasta que sean falsadas; es una empresa intrínsecamente dinámica ya que las hipótesis deben probarse continuamente. Si dejamos de testear las hipótesis, dejamos de hacer ciencia.
El falsacionismo lleva al falibilismo epistemológico: “Ninguna teoría científica puede considerarse absolutamente verdadera.
Aunque una teoría haya sobrevivido a múltiples pruebas:
- Siempre es posible que aparezca una nueva evidencia que la refute .
- Esto la diferencia de las matemáticas, donde desde axiomas firmes se pueden derivar conclusiones definitivas.
Ejemplo histórico:
La mecánica newtoniana fue considerada válida durante siglos, hasta que la relatividad especial y la mecánica cuántica revelaron sus límites.
Observación histórica
El falsacionismo surgió en el siglo XX, principalmente en el trabajo de Karl Popper , especialmente en su libro La lógica de la investigación científica (1934) y luego en Conjeturas y refutaciones (1963).
Hoy, muchas comunidades científicas, incluyendo las ciencias sociales, adoptan explícita o implícitamente este modelo como guía metodológica.
El deductivismo también es llamado falsificacionismo (falsificationism), racionalismo crítico y explicación hipotético-deductiva de la ciencia.
Problemas del deductivismo
El deductivismo es atractivo porque aparenta explotar con éxito la asimetría entre verificación y falsación de hipótesis generales.
Pero la verificación de la hipótesis empírica general, es decir, su prueba definitiva de su veracidad, es imposible porque para enunciados generales, debemos hacer infinita cantidad de tests ( el problema de la inducción sección 2.1). Sin embargo la falsación definitiva de una hipótesis empírica general parece posible porque un solo hecho que contradiga la hipótesis, basta.
Problema de la inducción en el deductivismo
- Si nuestra falsación es definitiva, debemos asumir su reproducibilidad, es decir, la capacidad de que esa prueba contra nuestra hipótesis sea reproducible en el futuro y de los mismos resultados, lo que nos asegura que esta prueba siempre refutará la hipótesis en cuestión. Pero aquí entra un problema grave: la reproducibilidad es una generalización inductiva. Es decir que cuando decimos que nuestra prueba que refuta la hipótesis puede reproducirse luego y darnos los mismos resultados, estamos asumiendo que generalmente la prueba funciona contra la hipótesis, pero lo deducimos desde unos pocos intentos. Al decir que una prueba definitiva contra una hipótesis ha sido probada 5 veces pero asumimos que seguirá funcionando así siempre, es una inducción que hacemos de una pequeña cantidad de casos.
- Para afirmar que una hipótesis ha sido falsada, debemos asumir que el experimento es reproducible.
- Pero esto implica hacer una generalización inductiva sobre los resultados del experimento: si funcionó cinco veces, suponemos que seguirá funcionando así.
Problema de la complejidad empírica 2. Si la ciencia no debe dejar de testear críticamente las hipótesis, esto nos lleva a resultados no deseados y desagradables. Si suponemos la hipótesis $y=f(x)$, no solo estamos asumiendo que y co-varía con x en la forma en que la función f establece, sino que establece que depende sólo de x y no de otras variables $u, v, w,$ etc, también. Estas variables de las que y podría depender co-varíando con ellas, podrían ser infinitas. La lista de variables influenciables potenciales, es indefinida (esto incluye el corte de pelo del experimentador, la posición de Venus, etc) Este es el mismo inconveniente que presentaba el inductivismo. - Una hipótesis puede depender de una cantidad indefinida de variables. - Por ejemplo, una relación funcional y=f(x) podría realmente depender también de u,v,w,… , incluso de factores irrelevantes aparentes como “el corte de pelo del experimentador” o “la posición de Venus”.
El problema de la falta de principio para la aceptación provisional de hipótesis
- El problema principal del deductivismo es la falta de un principio para la aceptación, tal vez temporal, de las hipótesis. El deductivismo no puede parar de probar hipótesis por lo que nunca puede llegar a la aplicación.
- El falsacionismo no ofrece criterios claros para dejar de testear una hipótesis y usarla en aplicaciones prácticas.
- Esto genera un conflicto entre el rigor teórico y la necesidad práctica de aplicar teorías en ingeniería, medicina, etc.
Elementos necesarios en cualquier filosofía de la ciencia
Cualquier modelo adecuado del método científico debe incluir principios claros para:
- Generación de hipótesis (creatividad, imaginación, contexto teórico)
- Eliminación de hipótesis falsas (testeo empírico, falsación)
- Aceptación provisional de hipótesis útiles (para detener pruebas y permitir aplicación técnica)
Bibliografía
- Chalmers, A.F. (1999): What is This Thing Called Science? Third Edition. Indianapolis: Hackett (especialmente capítulos 1–4)
- Loose, John (1993): A Historical Introduction to the Philosophy of Science . 3rd ed. Oxford: Oxford University Press
- Salmon, M.H. / J. Earman / C. Glymour / J.G. Lenoxx / P. Machamer / J.E. McGuire / J.D. Norton / W.C. Salmon / K.F. Schaffner (1992): Introduction to the Philosophy of Science . Englewood Cliffs NJ: Prentice-Hall
- Popper, Karl R. (1968): The Logic of Scientific Discovery . Second Edition
CLASE 5 y 6: Teoría de los paradigmas
Introducción
La teoría de los paradigmas es una filosofía descriptiva de la ciencia. A diferencia del inductivismo o el deductivismo , que son modelos normativos (es decir, dicen cómo debería funcionar la ciencia), esta teoría se centra en cómo funciona realmente la ciencia en la historia .
Thomas Kuhn, autor de este enfoque, muestra una gran discrepancia entre lo que proponen los modelos normativos y lo que hacen los científicos en la práctica.
Discrepancias observadas:
- En el inductivismo , se supone que los científicos parten sin teorías previas, solo con observaciones puras — algo que no ocurre.
- En el deductivismo , se espera que los científicos nunca dejen de testear hipótesis — pero en la práctica sí lo hacen.
La discrepancia puede darse por:
- Las normas son malas, irrealistas.
- La práctica real de la ciencia es mala, dogmática por ejemplo.
Pero solo de la discrepancia no puede juzgarse si las normas deberían abandonarse o si la práctica científica debería ser cambiada.
Entonces, ¿qué hacer con esta discrepancia? ¿Son malas las normas? ¿O es mala la práctica científica?
La teoría de los paradigmas nos ayuda a entender cómo evoluciona la ciencia y por qué estas diferencias existen.
Modelo de desarrollo de la ciencia
Kuhn propone un modelo cíclico de desarrollo científico, compuesto por distintas fases :
- Ciencia pre-normal
- Ciencia normal (N₁)
- Ciencia revolucionaria (R₁)
- Ciencia normal (N₂)
- Y así sucesivamente…
La teoría de los paradigmas describe las características generales del desarrollo de las disciplinas básicas de las ciencias naturales (opuestas a las aplicadas) por medio de un modelo de fases o modelo de desarrollo. Las fases del desarrollo de la ciencia son distinguibles y su orden temporal es descrito. En cada fase la ciencia es practicada de distintas formas *en base a un paradigma, es decir, un conjunto de creencias, valores ,métodos y supuestos compartidos por una comunidad científica en un momento dado. Estos paradigmas proporcionan un marco de referencia y una base conceptual para llevar a cabo investigaciones y generar conocimiento dentro de un campo científico determinado.
Fase 1: Ciencia pre-normal
Esta etapa corresponde al inicio de una disciplina científica. No hay consenso sobre los fundamentos teóricos ni metodológicos.
- Existen varias escuelas rivales que compiten entre sí.
- Cada escuela tiene su propia visión fundamental del objeto de estudio.
- No hay acuerdo sobre qué problemas son relevantes o qué tipo de datos deben considerarse válidos.
Ejemplo histórico: electricidad en el siglo XVIII
- Una escuela afirmaba que la atracción electrostática era más fundamental que la repulsión.
- Otra defendía que ambas eran igualmente importantes.
- Otra sostenía que la conducción eléctrica era el fenómeno central.
En esta fase, no hay un marco común que guíe la investigación.
La etapa de la ciencia pre-normal dan inicio a la mayoría de las ciencias conocidas donde se parte de escuelas de diversos pensamientos donde no hay consenso, pero por ejemplo, sobre la astronomía no se conoce bien su etapa pre-normal debido a su antigüedad.
Transición a la ciencia normal
El paso a la ciencia normal ocurre cuando una de las escuelas presenta una solución tan convincente a un problema clave, que logra reunir a otras bajo su enfoque.
Este momento se llama maduración del campo .
¿Cómo se evalúa la teoría ganadora? Se basa en valores científicos , tales como:
- Alcance : cuántos fenómenos puede explicar.
- Precisión : exactitud de sus predicciones.
- Poder predictivo : capacidad para anticipar nuevos fenómenos.
- Consistencia interna : coherencia lógica.
- Fecundidad : potencial para generar nuevas investigaciones.
Ejemplo: el modelo atómico de Bohr
Un ejemplo es la victoria del modelo atómico de Bohr. Dada la estructura del átomo, requerimos poder explicar por qué tenemos un espectro de luz discreto.
Bohr propuso un modelo que explicaba:
- La distribución de cargas en el átomo.
- El espectro de emisión discreto del hidrógeno.
- La estabilidad del átomo.
Aunque su modelo violaba principios de la física clásica (los electrones deberían caer al núcleo), ofreció resultados precisos que ningún otro modelo podía alcanzar.
Su aceptación fue un punto de inflexión hacia una nueva fase de ciencia normal.
Cuando calentamos un gas, el gas irradia luz que puede ser descompuesta. Su espectro es discreto, es decir que cada ciertos rangos obtenemos distintas propiedades. Además, cada elemento presenta distintos espectros de luz cuando estos irradian luz al ser calentados. Bohr explicó que las orbitas que les correspondían a los electrones, en las cuales en función de la energía que recibían saltaban de una a otra, se correspondían con los rangos o lambdas que mostraban los espectros, que eran discretos.
En 1913 Bohr pudo calcular la línea de espectro del hidrógeno usando su modelo. Esto cumple con la precisión y poder predictivo. Aún así el modelo no era consistente porque violaba los principios de la mecánica clásica, las órbitas no podían ser estables porque el electrón debería perder energía y paulatinamente detenerse y hasta caer al centro como un planeta cuando orbita una estrella. A pesar de esa inconsistencia, su postulado podía predecir la línea del espectro del hidrógeno. La suposición de la estabilidad de los electrones debe ser aceptada porque nos lleva a predicciones y resuelve cuestiones fundamentales que ningún otro modelo pudo hacer. El modelo debía solucionar algunas cosas pero era obvio que era el mejor disponible.
En resumen, el modelo atómico de Bohr describe la distribución de cargas positivas y negativas, el espectro de emisión discreto y la estabilidad de los átomos (supongo que más adelante Bohr dió una explicación a esto)
Aclaración
El hecho de que existan escuelas, es una condición necesaria para la ciencia pre-normal pero no una condición suficiente. En el caso de Galileo cambiando la visión geocentrista, y el caso del tiempo de Aristoteles, cambiando la visión terraplanista, son casos de revolución científica, no de ciencia pre-normal.
En el siglo XVI no había discusión sobre el hecho de que la Tierra era de una esfera era una cuestión establecida 350 aC. En el tiempo de Aristoteles era claro que la Tierra era una esfera. Hasta el día de hoy no hubo una ruptura en esta convicción.
Aún así, si había una discusión respecto a cuál era el centro del universo. Había una discusión entre el geocentrismo y el heliocentrismo, popularizada por Copérnico en el siglo XV. Pero esto fue una discusión y habían escuelas, pero no había ciencia pre normal, (algo que se verá más adelante). Pero como se explicó, las escuelas no son condición suficiente de la existencia de la ciencia pre normal.
En la etapa de la revolución de la ciencia, también hay escuelas, por lo que las escuelas no son condición suficiente para la ciencia pre-normal.
Fase 2: Ciencia normal
Es una práctica científica caracterizada por un consenso entre sus practicantes sobre los fundamentos del campo. Este consenso es el paradigma.
Una vez establecido el paradigma, se entra en una etapa de ciencia normal , caracterizada por:
- Un consenso amplio sobre los fundamentos teóricos y metodológicos.
- Investigación guiada por el marco paradigmático.
- Los científicos resuelven problemas técnicos y específicos, sin cuestionar el marco general.
a) El consenso sobre los fundamentos del campo, provee a los científicos un marco de referencia de re investigación que ellos aceptan. Si se acepta el modelo de Bohr del átomo, tenemos una estructura (framework) para nuestra investigación. Esta estructura fundamental es la solución a un problema fundamental (y por eso la ciencia normal surge de la ciencia pre-normal).
b) La base del consenso son las soluciones paradigmáticas a problemas científicos concretos, llamados paradigmas. Son el acuerdo nuclear/core del consenso. El consenso consiste en soluciones específicas a problemas. En el caso de Bohr, por qué los átomos eran estables y por qué había emisión de luz en un específico patrón. El modelo de Bohr fue aceptado para resolver estas soluciones paradigmáticas, lo que llevó a un consenso. Estas soluciones son llamadas paradigmas. La idea general es que los científicos están de acuerdo con el método científico, pero esto es falso porque no hay algo así como el método científico. Según la Teoría de Paradigmas, el consenso/acuerdo entre científicos, es aceptar las soluciones paradigmáticas a problemas paradigmáticos.
c) La investigación científica está implícitamente gobernada por los paradigmas, que funcionan como ejemplares de investigación exitosa.
La investigación se asemeja a la resolución de un puzzle:
Hay una serie de reglas implícitas que limitan el proceso de solución y el criterio de identificación de soluciones completadas.
Hay una expectativa de la existencia de una solución. Si se falla en solucionar el problema, el problema fue mal elegido o se falló en resolver el problema.
Si no se encuentra, se culpa al investigador o al problema elegido, no al paradigma. La actividad de investigación no apunta a la innovación del marco rector, es decir, toma por sentada la solución paradigmática. Contrario al inductivismo y deductivismo, la actividad investigativa no puede ser vista como pruebas o confirmaciones de las reglas guías de la ciencia. Si algo es testeado, son los científicos. Más bien, es la producción de nuevos conocimientos sobre la base de conocimientos ya existentes.
La motivación por la actividad es menos del deseo de poseer la solución y más la exposición de la habilidad de resolver problemas creativamente
El consenso en la ciencia normativa es que la base del paradigma no debe ser cuestionada. Es un elemento cuasi-dogmático porque no se sostiene por siempre (como muestra la transición de la ciencia revolucionaria) y no es evaluado negativamente (el dogma en este sentido de ciencia normativa no es en un sentido malo, es apegarse al modelo que funciona). El dogma en la religión es sostenido por siempre, no puede ser puesto en duda.
Importancia del paradigma
El paradigma no es simplemente una teoría, sino un ejemplar de investigación exitosa . Define:
- Qué problemas merecen ser estudiados.
- Qué métodos usar.
- Qué cuenta como una buena explicación.
Ejemplo: aceptar el modelo de Bohr permitió avanzar en estudios sobre la estructura atómica sin necesidad de redefinir constantemente los conceptos básicos.
Una vez producida la etapa normal, nos encontramos con un marco de referencia aceptado, lo que significa que cuando hablemos del tema concerniente al marco de referencia, respondamos, preguntemos e investiguemos en términos del mismo. Es aceptado porque gracias a su poder explicativo y predictivo, se considera que puede permitir resolver los problemas que se presentan.
En la teoría de paradigmas hay una creencia implícita de que el problema tiene una solución.
Fase 3: Ciencia revolucionaria
Con el tiempo, aparecen anomalías que el paradigma actual no puede explicar.
Estas anomalías generan crisis que llevan a buscar nuevos marcos teóricos.
Cuando una nueva solución ofrece una explicación superior, se produce una revolución científica .
- Surge un nuevo paradigma.
- La comunidad científica se divide entre defensores del viejo y del nuevo marco.
- Finalmente, si el nuevo paradigma es más fructífero, se impone.
Ejemplo: transición de la mecánica clásica a la cuántica
- El modelo de Bohr no podía explicar todos los fenómenos atómicos.
- Surgieron nuevas teorías (mecánica cuántica) que ofrecieron mejores explicaciones.
- Esto marcó el fin de una fase normal y el inicio de una revolución científica.
Diferencia entre ciencia pre-normal y ciencia revolucionaria
Aunque ambas fases incluyen diversidad de opiniones y escuelas , no son lo mismo:
- En la ciencia pre-normal , aún no existe un marco dominante.
- En la ciencia revolucionaria , ya existía un paradigma, pero está siendo cuestionado por uno nuevo.
Por ejemplo, el debate entre geocentrismo y heliocentrismo no fue ciencia pre-normal, sino una revolución científica , porque ya existía un marco establecido (el ptolemaico) que fue superado por otro (el copernicano).
Conclusión
La teoría de los paradigmas de Kuhn nos muestra que la ciencia no avanza de manera lineal ni acumulativa, sino mediante ciclos de estabilidad y cambio radical.
- En la ciencia normal , los científicos trabajan dentro de un marco compartido.
- En la ciencia revolucionaria , ese marco es cuestionado y sustituido.
- En la ciencia pre-normal , aún no ha surgido un paradigma dominante.
Este modelo ayuda a entender por qué los científicos no siempre actúan como predicen los modelos normativos, y cómo el conocimiento científico evoluciona históricamente.
CLASE 7: Teoría de los paradigmas
(Se omite la parte 1 que se subió mal a youtube)
Revolución científica y ciencia pre-normal
La ciencia revolucionaria apunta a establecer un nuevo marco de referencia para la investigación lo que hace posible nuevamente a la ciencia normal. En el nuevo marco teórico, las anomalías significativas deben ser resolubles y los principales logros del antiguo marco deben ser preservados o al menos reproducibles.
En esta transición:
- Las anomalías significativas del paradigma anterior deben ser resolubles bajo el nuevo.
- Los resultados importantes del paradigma anterior deben ser preservados o reproducibles dentro del nuevo marco teórico.
Diferencias entre ciencia revolucionaria y ciencia pre-normal
| CARACTERÍSTICA | CIENCIA PRE-NORMAL | CIENCIA REVOLUCIONARIA |
|---|---|---|
| Desacuerdo entre escuelas rivales | Consenso inexistente | Consenso parcial, heredado del paradigma anterior |
| Problemas a resolver | Sin acuerdo claro porque los limites del campo no están definidos | Heredados del paradigma anterior |
| Historia previa | No tiene | Sí tiene, viene de una fase de ciencia normal. Hereda un consenso sobre las anomalías significativas que deben ser resueltas y que debe preservarse y reproducirse los resultados de las teorías aceptadas anteriormente |
| Evaluación de teorías | Basada en valores científicos | También basada en valores, pero con conflicto |
¿Qué es una revolución científica?
Una revolución científica es una transformación radical en la práctica científica:
- Se cambia el marco teórico guía .
- Se redefine qué cuenta como problema legítimo , qué métodos son válidos y qué resultados son aceptables.
- Es similar a una revolución política : se reemplaza un orden por otro.
- No está guiada por reglas explícitas, sino que surge de manera creativa e improvisada.
Este tipo de cambios ocurre cuando una teoría o modelo ofrece una solución extraordinariamente convincente a un problema clave, superando al paradigma vigente.
Es una etapa que sucede análogamente a la transición de ciencia pre normal a ciencia normal debido a un logro extraordinario.
Inconmensurabilidad
La inconmensurabilidad hace referencia a la relación entre las fases de la ciencia normal. La antigua fase normal de la ciencia es inconmensurable con la nueva fase de la ciencia normal (o la vieja y nueva teoría).
El concepto viene de las matemáticas, cuando los griegos concluyeron que es imposible expresar la diagonal $d$ de un cuadrado en las mismas unidades que uno de sus lados $a$. Actualmente sabemos que podemos resolver este problema con números irracionales tal que $d=2a$. Este problema provocó consecuencias de largo plazo, provocando desarrollar la geometría en lugar del álgebra. La relación entre a y d es inconmensurable porque sus unidades deben ser distintas. “No hay medida común”.
Extrapolado a la teoría de los paradigmas, la inconmensurabilidad explica que no hay medida común en tres sentidos, con la que podamos expresar a la etapa normal previa a la revolución y la etapa posterior:
- Conceptual Los conceptos utilizados en un paradigma pueden no tener equivalente en otro. Algunos conceptos simplemente no pueden traducirse directamente.
Ejemplo:
- En el modelo atómico de Bohr, el electrón es una partícula que orbita alrededor del núcleo.
- En mecánica cuántica, el electrón se describe mediante una función de onda , sin órbitas definidas.
No podemos entender completamente la mecánica cuántica usando los conceptos del modelo de Bohr.
La radicalmente nueva descripción del área específica usa nuevos conceptos. Las etapas no usan el mismo conjunto de conceptos. Algunos de los nuevos conceptos no pueden ser expresados en términos de los viejos conceptos y viceversa. Es lo que ocurre en la mecánica cuántica al tratar de entenderla en términos del modelo atómico de Bohr: en la modelo de Bohr el electrón es un punto que gira en torno al núcleo siguiendo una órbita específica, pero para la mecánica cuántica el electrón no es un punto sino que se describe con una función de onda y no existen las órbitas.
Lo mismo sucedió con el campo electromagnético. Las ondas del sonido y del agua son perturbaciones, son sacudidas de partículas que transmiten este movimiento a las moléculas circundantes y propagan la onda. Para que esto llegue a nosotros se requiere un medio. En el caso de las olas el medio es el agua, en el caso del sonido es el aire y en el caso de las ondas electromagnéticas, se supuso que era el ether (siglo XIX). Lo que pasó en los principios del siglo 20 fue que se descubrió que no había un ether electromagnético, sino que el espacio vacío transportaba ondas electromagnéticas. Esto no podía ser entendido en términos del ether.
- Datos empíricos Los datos no son neutros ; están siempre interpretados a través de una teoría. Por tanto, los mismos datos pueden tener distintos significados en paradigmas diferentes.
Ejemplo:
- Antes de la relatividad, la rotación anómala de Mercurio era considerada un error pequeño.
- Con la teoría de Einstein, ese mismo dato se convirtió en una predicción precisa , lo cual le dio relevancia.
Esto muestra cómo los datos relevantes dependen del marco teórico desde el cual se observan.
Los datos no pueden usarse para comparar dos teorías porque los datos en sí no son libres de teorías. Por este motivo sucede otro caso de inconmensurabilidad al tratar de evaluar una teoría a partir de datos que pertenecen naturalmente a otra teoría en la que se deposita la confianza.
La elección de los datos (el grupo de datos que se consideran relevantes) y métodos de las medidas pueden estar siendo influenciados por la teoría de la que hacemos uso. Los datos no son neutros; están siempre interpretados a través de una teoría. Por tanto, los mismos datos pueden tener distintos significados en paradigmas diferentes. Antes de la relatividad, la rotación anómala de Mercurio era considerada un error pequeño. Con la teoría de Einstein, ese mismo dato se convirtió en una predicción precisa , lo cual le dio relevancia. Esto muestra cómo los datos relevantes dependen del marco teórico desde el cual se observan
- Valores científicos Los criterios que usamos para evaluar teorías (precisión, consistencia, alcance, etc.) también pueden estar influenciados por el paradigma dominante. Los valores científicos juegan un rol en la evaluación de las teorías competidoras y a su vez dichos valores dependen de alguna de las teorías en cuestión. Si no son independientes de las teorías que evalúan no hay imparcialidad a la hora de evaluar cuál es la mejor. Ejemplo: Si hacemos una evaluación entre varias teorías físicas desde la perspectiva de teorías deterministas como la física clásica donde el valor está puesto en las teorías deterministas fundamentales, entonces la mecánica cuántica es una mala teoría.
Ejemplo:
- Hasta el siglo XIX, se valoraban las teorías deterministas (como la física clásica).
- La mecánica cuántica, con sus elementos probabilísticos, fue vista inicialmente como inferior por estos estándares.
- Sin embargo, su poder explicativo y predictivo llevó a reconsiderar el valor del determinismo como criterio absoluto.
Esto revela que los valores no son neutrales , sino que pueden estar condicionados por el paradigma.
Conclusión
La inconmensurabilidad entonces, será que en los casos de revolución científica no existen valores neutrales absolutos por medio de los cuales evaluar las teorías demostrando lo complicado (pero no imposible) que es el proceso de la revolución científica. No solo aplica a la relación entre las tradiciones de la ciencia normal sobre la ciencia fundamental sino también en la relación entre las escuelas de la ciencia pre-normal y en la relación entre las diferentes culturas.
CLASE 8: Teoría de los paradigmas
Argumento contra las filosofías normativas de la ciencia
Las filosofías normativas (como el inductivismo o el falsacionismo) proponen modelos ideales de cómo debería funcionar la ciencia. Pero Kuhn señala que estas visiones no coinciden con la práctica real de los científicos.
Inconmensurabilidad en los datos
Tanto el inductivismo como el deductivismo asumen que los datos son neutrales y pueden usarse como base objetiva para contrastar hipótesis.
Kuhn argumenta que esto es falso : los datos siempre están cargados de teoría.
““Lo que vemos no es independiente de lo que creemos.”
Por eso, comparar teorías usando los mismos datos puede llevar a malentendidos si esos datos están interpretados desde un marco diferente.
Usualmente pensamos que los datos medidos son algo fijo que podemos usar para comparar distintas hipótesis. En el inductivismo se asumía que se parte de datos libres de teoría en los que podemos confiar y queda claro en el deductivismo que esto es una idea errónea. Los datos no son tan solidos ni confiables porque los datos contienen elementos teóricos que pueden estar mal.
Los elementos teóricos en los datos llevan nuevamente a la inconmensurabilidad porque no podemos usar el mismo conjunto de datos para evaluar diferentes candidatos de nueva teoría.
La elección de datos relevantes y métodos de medición pueden estar influenciados por las teorías que hacen uso de ellos. Al comparar teorías, los datos para evaluarlas podrán variar y haber discrepancia en lo que cada teoría considera relevante y en los métodos usados para recopilarla.
Antes de la teoría de la relatividad, la rotación de la orbita de Mercurio tenía un error del 7% el cual no pareció un gran error. Posteriormente con la aparición de Einstein y su teoría de la relatividad General, este porcentaje fue predecible por su teoría tomando enorme relevancia. El error puede no ser significativo bajo una teoría a menos que se entienda cual es el origen del error, convirtiéndolo en un número significativo en otra teoría con una comprensión mas cabal. Es un motivo por el que conjuntos de datos levemente distintos puede convertirse en un detalle significativo. La relevancia no es la misma para distintas teorías.
Inconmensurabilidad en los valores
Como ya hemos visto, los valores usados para evaluar teorías (determinismo, simplicidad, precisión, etc.) pueden depender del paradigma en el que estamos inmersos.
Esto pone en duda la idea de que haya un criterio imparcial universal para decidir qué teoría es mejor.
Los valores usados para evaluar las teorías pueden depender de las teorías en cuestión. No podemos usar valores que dependen de las teorías evaluadas, no sería imparcial.
Hace 300 años se creía que las teorías fundamentales debían ser deterministas, que no involucran probabilidad. Esto dice la física clásica, podemos calcular el futuro del universo solo con obtener su estado inicial. En 1925 la gente se dio cuenta que la Mecánica Cuántica era una teoría que involucraba elementos indeterministas. Se debía decidir entre las teorías clásicas deterministas o indeterministas. En el pasado, la experiencia con teorías deterministas, la gente tenía la idea de que una teoría fundamental debe ser determinista. Desde este valor, se puede decir que la Mecánica Cuántica es una mala teoría debido a sus elementos indeterministas. Pero desde la Mecánica Cuántica, la idea de la Física Clásica de que el universo es un mecanismo determinista es una idea falsa. Entonces el valor usado para evaluar la veracidad de las teorías depende de alguna de ellas. Desde las teoría Física Clásica se derivan los valores deterministas y desde estos se evalúa todo lo demás a partir de estos valores. Esto significa que no estamos abiertos a otras teorías.
Acorde a otros valores como la resolución de problemas, la nueva teoría con elementos indeterministas era extremadamente fuerte. Por este valor la gente aceptó que el hecho de que el determinismo como un valor para evaluar las teorías no era tan fuerte como la resolución de problemas.
El dogmatismo en la ciencia normal
Para el falsacionismo, cualquier teoría debe someterse constantemente a pruebas. Pero en la práctica, los científicos aceptan provisionalmente un paradigma y trabajan dentro de él sin cuestionarlo constantemente.
Este comportamiento parece dogmático , pero Kuhn lo defiende como necesario para el avance del conocimiento :
- Permite concentrarse en resolver problemas específicos.
- Evita la parálisis por constante cuestionamiento.
- Facilita la acumulación de conocimientos dentro de un marco compartido.
Para las filosofías normativas, la ciencia normativa es una mala práctica por sus elementos cuasi-dogmáticos. Las tensiones entre el inductivismo y deductivismo devienen de la ciencia normativa. Estos elementos son las reglas de la ciencia que no son testeadas.
Para el deductivismo esta es una mala práctica porque él no está de acuerdo con el uso de algo que no está continuamente probado/testeado.
La teoría de paradigmas defiende la práctica de la ciencia normal señalando que esta práctica sirve a funciones vitales para el objetivo de la ciencia (producción de conocimiento). En consecuencia la práctica de la ciencia normal es razonable y las filosofías normativas de la ciencia están erradas en este caso.
Estos elementos cuasi-dogmáticos de la ciencia normal proveen el principio que hacía falta, especialmente en el deductivismo: un principio para la aceptación de hipótesis que permite detener las pruebas (una regresión infinita de pruebas de los principios que fundamentan la investigación, que a su vez se fundamentan en otros principios, y así sucesivamente). Esto indica que las dificultades que emergen en una teoría no son inmediatamente indicadores de que falló sino de la incapacidad de los respectivos científicos. La teoría no es un desastre, sino el científico que no puede resolver el problema. Si desistimos de una teoría por un problema que no puede resolver y que técnicamente la falsea (demuestra su falsedad en el sentido que se usa hasta ahora), nunca conoceremos su potencial. Trabajar en la teoría con la anomalía que no puede ser resuelta puede permitir llegar a un conocimiento más profundo sobre donde yace el fallo, donde colapsa la teoría, resultando en un mejor desarrollo y en un mayor conocimiento sobre lo que deben lograr las alternativas a la vieja teoría. Entendiendo el error es cómo podemos evitarlo en un futuro.
¿Quién tiene razón? ¿Las filosofías normativas o la ciencia tal como se practica?
Kuhn no dice que las filosofías normativas estén equivocadas, pero sí que no capturan adecuadamente la complejidad de la práctica científica real .
Él defiende que:
- La ciencia normal es razonable y funcional.
- Sus aspectos cuasi-dogmáticos no son un defecto, sino una condición necesaria para que la investigación sea posible.
- El proceso de revolución científica, aunque conflictivo, es lo que permite avanzar hacia nuevos horizontes teóricos.
En este sentido, la historia de la ciencia no respalda modelos puramente normativos , sino que sugiere una visión más flexible, histórica y contextual.
Reflexión final
La teoría de los paradigmas nos invita a repensar lo que entendemos por progreso científico :
- Ya no es un avance lineal hacia una verdad absoluta.
- Es más bien un proceso de transformaciones radicales, donde cada paradigma redefine los términos del debate.
- La ciencia progresa no solo sumando conocimientos, sino redefiniendo qué preguntas merecen ser respondidas.
Esta visión, aunque desafiante para algunos modelos tradicionales, nos acerca más a cómo realmente funciona la ciencia.
Clase recomendada por falta de la clase 9 parte 1
Apuntes corregidos y reconstruidos
(En base al tipo de curso que dicta Hoyningen-Huene y a la filosofía de la ciencia contemporánea)
¿Qué es la ciencia?
La pregunta surge por un vacío conceptual: la pérdida de confianza en la existencia de el método científico único. Ese vacío consiste en no saber con claridad qué hace específico al conocimiento científico y por qué sería superior a otros tipos de conocimiento.
Una respuesta clásica afirma que la ciencia es especial porque proviene del “método científico”, entendido como una empresa regida por reglas estrictas. El problema es que los estudios históricos de la ciencia muestran que no existe tal conjunto fijo de reglas. La práctica real es demasiado diversa y no se ajusta a un método único universal.
Por lo tanto, reaparece la pregunta central: ¿En qué se diferencia el conocimiento científico de otras formas de conocimiento?
Línea histórica (corregida)
La disputa sobre qué distingue a la ciencia recorre múltiples enfoques:
-400 ——— 1600 ——— 1700 ——— 1800 ——— 1900 ——— 2000 (hitos conceptuales: certeza, prueba deductiva, método científico, falsacionismo, y crítica contemporánea a estos modelos)
- Certeza y prueba deductiva (época clásica): se pensaba la ciencia como conocimiento demostrable con absoluta seguridad.
- Método científico (Renacimiento–Ilustración): surge la idea de reglas estables de investigación empírica.
- Falsacionismo (siglo XX): Popper propone que la ciencia avanza eliminando teorías falsas.
- Post-Popperianos (Kuhn, Lakatos, Feyerabend, Hoyningen-Huene): muestran que ninguna de estas respuestas captura adecuadamente cómo funciona la ciencia realmente.
Caída de la certeza
Gracias al falibilismo (fallibilism), sabemos que:
- El conocimiento científico no es absolutamente cierto.
- Siempre puede revisarse, corregirse o abandonar teorías.
- La autoridad de la ciencia no proviene de la certeza, sino de otras propiedades estructurales de su práctica.
Por qué importa
Somos culturalmente dependientes de la ciencia en niveles inmensos. Entender su funcionamiento es esencial porque:
- La metodología científica influye en política, educación, economía y debate público.
- Las distintas disciplinas no usan métodos idénticos y sus diferencias tienen consecuencias prácticas.
Amplitud disciplinaria
En este curso, el término ciencia se entiende en su acepción más amplia: Wissenschaft (campo de investigación sistemática).
Incluye no solo ciencias naturales, sino también:
- ciencias sociales
- historia
- ingeniería
- investigación formal
- estudios empíricos de todo tipo
No se busca descubrir “la esencia” de la ciencia ni fijar límites nítidos, porque la práctica científica real no tiene fronteras rígidas. Solo se intenta definir operativamente qué es la ciencia.
Respuesta corta (planteada por el curso)
La respuesta será defendida y elaborada a lo largo de las clases:
El conocimiento científico se diferencia de otros tipos de conocimiento por su grado de sistematicidad. Es decir, la ciencia no es única por reglas infalibles, por un método universal ni por certeza absoluta, sino por el modo altamente sistemático en que organiza teorías, datos, métodos, preguntas, explicaciones y prácticas.
(Esto remite directamente a la tesis central de Hoyningen-Huene: la ciencia es conocimiento más sistemático.)
CLASE 9: Teoría de la sistematicidad
(Clase de reemplazo armada por Chatgpt)
Esta teoría busca entender qué hace que una disciplina sea considerada una ciencia y cómo se distingue de otras formas de conocimiento.
Teoría de la Sistematicidad
La teoría de la sistematicidad es una perspectiva en la filosofía de la ciencia que se centra en la idea de que la ciencia se caracteriza por su enfoque sistemático en varios aspectos del conocimiento y la investigación. Según esta teoría, la ciencia no se distingue por un solo criterio (como la falsabilidad, el método experimental, etc.), sino por una combinación de características sistemáticas.
Características de la Sistematicidad
La sistematicidad en la ciencia se puede entender a través de varias dimensiones:
Sistematicidad en la descripción
- La ciencia se esfuerza por describir los fenómenos de manera detallada y coherente. Las descripciones científicas son precisas y basadas en observaciones empíricas rigurosas.
Sistematicidad en la explicación
- Las explicaciones científicas buscan no solo describir los fenómenos, sino también entender sus causas y mecanismos. Las teorías científicas proporcionan explicaciones basadas en principios subyacentes que pueden aplicarse de manera consistente.
Sistematicidad en la predicción
- La ciencia utiliza modelos y teorías para hacer predicciones sobre futuros eventos o resultados. La capacidad de hacer predicciones precisas y verificables es una característica clave de la ciencia.
Sistematicidad en la defensa crítica
- Los científicos están comprometidos con la crítica y la revisión constante de sus teorías e hipótesis. Esto incluye la evaluación rigurosa de evidencias y la disposición a modificar o abandonar teorías en respuesta a nuevas pruebas.
Sistematicidad en la estructura del conocimiento
- El conocimiento científico está organizado de manera jerárquica y coherente. Esto incluye clasificaciones taxonómicas, teorías que se integran en marcos más amplios y principios que unifican diferentes áreas de estudio.
Sistematicidad en la metodología
- La ciencia emplea métodos sistemáticos y estandarizados para la recopilación de datos, experimentación y análisis. Estos métodos están diseñados para minimizar sesgos y maximizar la reproducibilidad.
Sistematicidad en la presentación
- La ciencia presenta sus hallazgos de manera clara y estructurada, utilizando terminología específica y formatos estándar (como artículos revisados por pares).
Sistematicidad en la investigación
- La investigación científica sigue procedimientos sistemáticos para formular hipótesis, diseñar experimentos, recolectar datos y analizar resultados.
Sistematicidad en la cooperación
- La ciencia es un esfuerzo colaborativo y sistemático que involucra la comunicación y cooperación entre científicos a nivel global. Esto incluye la publicación y revisión por pares, así como la construcción colectiva del conocimiento.
Importancia de la Sistematicidad
La teoría de la sistematicidad sugiere que lo que distingue a la ciencia de otras formas de conocimiento es su grado de sistematicidad en estas diversas dimensiones. Una disciplina puede ser considerada más científica cuanto más sistemática sea en estos aspectos.
Esta teoría también ayuda a entender cómo y por qué diferentes ciencias pueden variar en su grado de cientificidad. Por ejemplo, las ciencias naturales como la física y la química pueden ser vistas como más sistemáticas en comparación con las ciencias sociales, debido a la naturaleza de sus objetos de estudio y métodos.
Críticas y Debate
La teoría de la sistematicidad, como cualquier teoría en la filosofía de la ciencia, ha sido objeto de debate. Algunos filósofos argumentan que puede ser demasiado inclusiva o que no proporciona un criterio lo suficientemente claro para distinguir la ciencia de la no-ciencia. Otros creen que proporciona una visión más matizada y realista de cómo funciona la ciencia en la práctica.
Conclusión
La teoría de la sistematicidad ofrece una perspectiva valiosa sobre lo que caracteriza a la ciencia y cómo se distingue de otras formas de conocimiento. Al enfocarse en múltiples dimensiones de sistematicidad, proporciona una comprensión más completa y detallada de la práctica científica.
Parte 2
Problemas de la teoría de paradigmas
Es una filosofía descriptiva de la ciencia y existe una tensión con las filosofías normativas, especialmente con la ciencia normal que es una practica que, según la teoría de paradigmas es cuasi-dogmática, es decir, sus presuposiciones no son cuestionadas según su práctica.
Desde el punto de vista del deductivismo es una mala practica porque la ciencia debe ser crítica todo el tiempo evaluando todo lo que sea usado.
Para la teoría de paradigmas esto es un problema del deductivismo ya que es necesario tener unos principios de aceptación para no probar indefinidamente las herramientas a usar.
Para esta teoría, en la etapa de ciencia normal efectivamente el científico se comporta cuasi-dogmáticamente y no prueba todas las presuposiciones todo el tiempo.
La teoría de paradigmas ofrece una respuesta al problema de cual sería un principio razonable de aceptación tal que podamos detener el testeo continuo de las presuposiciones de un paradigma.
Según Kuhn (quien propuso esta teoría) los valores de los paradigmas científicos son inconmensurables, es decir, es difícil comparar teorías a lo largo de las revoluciones científicas ==porque no comparten los mismos valores o estandares==.
La ciencia teoría puede considerarse una teoría estadística al afirmar que la ciencia se desarrolla en cierta manera en la mayoria o todos los casos (fase prenormal, fase normal, fase de revolución, y repetir estas fases). A estos datos aplicamos un métodos estadísticos. Para la teoría de paradigmas esto no es conveniente tampoco porque aplicarlo a lo largo de la historia de la ciencia es sumamente dificil. No hay forma re recopilar los datos necesarios elaborando un muestreo que represente cada etapa de la ciencia o en distintas epocas para así aplicar estadística. Esto significa que la validez de los enunciados generales de la teoría de paradgimas sobre el desarrollo de las disciplinas científicas es incierto. Podemos afirmar que ciertos comportamientos se cumplen en ciertos casos de las etapas de la ciencia pero no sabemos que proporción representan.
Aún así hay ciertos momentos en la ciencia donde este modelo de fases no aplica. El modelo de fases de la teoría de paradigmas no aplica a como se desarrolló la ciencia. ¿En cuantos casos no aplica….
El acceso limitado a datos históricos prohíbe el uso de apropiadas herramientas estadísticas. Para aplicar estadística, los eventos estudiados deben ser homogéneos, suficientemente similares, algo que no obtenemos generalmente de los casos históricos. En las ciencias naturales se fuerzan en cierto modo los datos para aplicar estadística.
Las ciencias sociales sistemáticas están en una mejor posición en este respecto porque a menudopueden producir este tipo de datos necesarios para un analisis estadístico apropiado.
Literatura
Chalmers - What is that Thing Called Science? Hoyningen-Huene, Paul - Reconstructing Thomas Kuhn’s Philosophy of Science Preston, John - The structure of scientific revolutions
Clase 10: Teoría de la sistematicidad
La teoría de la sistematicidad es una filosofía descriptiva de la ciencia que busca caracterizar qué hace única a la ciencia en comparación con otras formas de conocimiento, especialmente el conocimiento cotidiano.
Su tesis fundamental es que el conocimiento científico se diferencia de otros tipos de conocimiento principalmente por ser más sistemático.
Esta teoría se aplica a nueve dimensiones o aspectos diferentes de la ciencia:
- Descripciones
- Explicaciones
- Predicciones
- Defensa de las afirmaciones de conocimiento
- Discurso crítico
- Conexiones epistémicas
- Ideal de completitud
- Generación de conocimiento
- Estructura y representación del conocimiento
Para cada una de estas dimensiones, la teoría afirma que la ciencia es más sistemática que el conocimiento cotidiano correspondiente.
La teoría reconoce que en algunos campos científicos muy especializados puede no existir un conocimiento cotidiano comparable. En estos casos, propone retroceder en el tiempo hasta un punto donde existía conocimiento cotidiano comparable, y luego seguir el desarrollo del conocimiento científico, argumentando que su sistematicidad ha aumentado con el tiempo.
La teoría de la sistematicidad es principalmente descriptiva, no normativa. Busca describir cómo es la ciencia real, no prescribir cómo debería ser.
Esta teoría se presenta como una alternativa a las caracterizaciones previas de la ciencia basadas en un único “método científico”, las cuales han sido cuestionadas por estudios históricos de la práctica científica real.
Su punto inicial es que hay buenos argumentos sobre que la base de la ciencia no es “el” método científico. Lo que afirma es que lo que hace especial al conocimiento científico no es especialmente por ser producido por el método científico.
El método científico general no es algo definido con precisión (no en el caso de las metodologías usadas en disciplinas puntuales). Para cualquier definición que demos del conjunto de reglas del método científico, podemos encontrar un episodio de la historia de la ciencia donde buenos resultados científicos fueron logrados sin seguir este conjunto de reglas.
La teoría de paradigmas es muy acertada describiendo que las ciencias maduras trabajan desde paradigmas y no desde un conjunto de reglas. Estos paradigmas son modelos, gobernando indirectamente la investigación científica sin tener necesariamente reglas explicitas.
La naturaleza general de la ciencia no puede ser descrita por reglas. No podemos caracterizar la especificidad del conocimiento firmado por “el” método científico correctamente.
No podemos anticipar como deberemos lidiar en una situación particular de la ciencia porque no podemos anticipar que conocimientos se tendrán. No podemos determinar reglas estrictas para obedecer en la ciencia y estas, a su vez, son capaces de bloquear el progreso científico.
La teoría de la sistematicidad es una generalización del método científico. Posee la flexibilidad adquirida por la comprensión del fracaso de la caracterización de la ciencia por medio del método científico.
La tesis fundamental de la teoría de la sistematicidad e que el conocimiento científico difiere de otros tipos de conocimiento especialmente del conocimiento cotidiano primordialmente por ser mas sistemático.
Primer observación: la tesis es de carácter comparativo: otros tipos de conocimiento no son necesariamente no-sistemáticos, simplemente son menos sistemáticos. La sistematicidad se compara entre sistemas de conocimiento del mismo dominio. Puedo conocer a alguien personalmente (conocimiento coditiano) o hacer una serie de pruebas psicológicas (conocimiento científico) donde uno es claramente mejor sistema que el otro.
Segunda observación: mas sistemático se refiere al conocimiento sobre el mismo dominio.
Tercer observación: La respuesta de la sistematicidad no es directamente aplicable a áreas donde solo existe el conocimiento científico (cabe resaltar que hay areas donde solo hay conocimiento cotidiano). No se puede hacer una comparación entre sistemas si solo hay un sistema en un dominio de conocimiento específico. Si comparamos el conocimiento científico sobre el ADN con otro sistema encontramos que no lo hay, no hay conocimiento cotidiano sobre el ADN. Esto es un problema bajo la teoría de la sistematicidad. Aún así al remontarnos al pasado encontramos que Mendel y Darwin desarrollaron la genética y la teoría de la Evolución a partir del conocimiento cotidiano, sin instrumentos complejos de medición como los actuales. Este sistema si es comparable con el sistema de algún criador o agricultor mostrando que las Leyes de Mendel son mas sistemáticas que lo que los criadores y agricultores saben acerca de sus práticas.
Parte 2
La teoría de la sistematicidad propone que la ciencia es más sistemática que el conocimiento cotidiano en nueve dimensiones diferentes. Esto puede parecer una afirmación simple, pero demostrarla es una tarea compleja, considerando que existen alrededor de 8,000 disciplinas y subdisciplinas científicas.
Primera dimensión de la ciencia:
Descripciones la ciencia logra mayor sistematicidad en sus descripciones: a) Matemáticas: Uso de axiomas para describir objetos matemáticos. b) Clasificación: Organización sistemática de objetos de estudio en diferentes campos. c) Cuantificación: Uso de mediciones precisas para describir fenómenos. d) Generalizaciones empíricas: Leyes que describen el comportamiento de múltiples sistemas. e) Periodización: División de procesos históricos en períodos para su estudio.
En la ciencia, las descripciones tienden a ser más sistemáticas que en el conocimiento cotidiano. Veamos algunos ejemplos:
- Descripciones: Las ciencias tienen una alta sistematicidad en sus descripciones, utilizando descripciones axiomáticas y clasificaciones. En matemáticas, utilizamos axiomas para describir objetos. Por ejemplo, en geometría euclidiana, tenemos axiomas que definen puntos, líneas y planos. Estos axiomas son la base para construir todo el conocimiento geométrico de manera sistemática.
- La clasificación es otra herramienta importante. En biología, por ejemplo, se clasifican millones de especies. En química, tenemos el sistema periódico de los elementos. Estas clasificaciones nos permiten organizar grandes cantidades de información de manera ordenada y coherente.
- Cuantificación: Cuantificar declaraciones descriptivas aumenta la precisión y el orden. La cuantificación es fundamental en la ciencia. Pensemos en cómo describimos la temperatura. En el lenguaje cotidiano, usamos términos vagos como “frío” o “caluroso”. En la ciencia, usamos mediciones precisas en grados Celsius o Fahrenheit, lo que nos permite hacer descripciones mucho más precisas y sistemáticas.
- Generalizaciones Empíricas: Las leyes fenomenológicas y ecuaciones de estado tienen un poder descriptivo significativo, permitiendo descripciones sistemáticas de los sistemas. Las generalizaciones empíricas, como la ley de los gases ideales, nos permiten describir el comportamiento de muchos sistemas diferentes con una sola ecuación. Esto es mucho más sistemático que tener que describir cada gas por separado.
- Periodización: En disciplinas históricas, la periodización clasifica eventos históricos en fases distintas, proporcionando una estructura sistemática. En las disciplinas históricas, la periodización nos ayuda a organizar el tiempo de manera sistemática. Por ejemplo, dividimos la historia en Edad Antigua, Edad Media y Edad Moderna.
Las explicaciones en ciencias son sistemáticas y buscan responder por qué ocurren ciertos fenómenos. Las generalizaciones empíricas y las teorías unificadoras proporcionan explicaciones más profundas y sistemáticas. En ciencias sociales, las explicaciones suelen recurrir a intenciones y creencias de los individuos para entender sus acciones. Todos estos métodos hacen que las descripciones científicas sean más sistemáticas que las descripciones del conocimiento cotidiano. Mientras que en la vida diaria podemos conformarnos con descripciones vagas o imprecisas, la ciencia busca constantemente formas de hacer sus descripciones más precisas, organizadas y coherentes.
Problemas Metodológicos La teoría es descriptiva y debe referirse a las ciencias reales existentes. Existen entre 250 y 500 disciplinas científicas, y miles de subdisciplinas. Es necesario justificar la teoría con ejemplos de diversas áreas científicas.
- Explicaciones científicas:
- Mediante generalizaciones empíricas (ej. ecuaciones de estado)
- A través de teorías más amplias y unificadoras
- Explicaciones narrativas en ciencias históricas
- Uso de modelos
- Explicaciones reduccionistas (entender sistemas complejos a través de sus partes)
- Las explicaciones científicas siguen patrones similares a las explicaciones cotidianas, pero son mucho más sistemáticas, detalladas y rigurosas.
- Predicciones científicas:
- Basadas en generalizaciones empíricas o teorías
- Uso de modelos computacionales complejos (ej. modelos climáticos, pronósticos del tiempo)
- Simulaciones y análisis estadísticos
- Las predicciones científicas son más ordenadas, explícitas y controladas que las predicciones cotidianas, aunque no siempre sean 100% precisas.
- El objetivo de la teoría de la sistematicidad no es evaluar la calidad de la ciencia, sino mostrar cómo difiere del conocimiento cotidiano en términos de su sistematicidad.
Ejemplos de explicaciones y predicciones: - Ecuación de estado de los gases ideales: El profesor usa este ejemplo para mostrar cómo las generalizaciones empíricas pueden usarse tanto para explicaciones como para predicciones en ciencia. Ilustra cómo una simple ecuación puede proporcionar explicaciones sistemáticas y predicciones precisas, algo que no es común en el conocimiento cotidiano. - La decisión del presidente Truman de lanzar la bomba atómica: Este ejemplo se utiliza para contrastar las explicaciones históricas científicas con las explicaciones cotidianas. El profesor señala que, aunque ambas se basan en intenciones y creencias, la explicación histórica es mucho más sistemática, requiriendo extensas investigaciones, documentación y análisis. - La calle curva en Francia: El profesor usa este ejemplo para ilustrar las “explicaciones narrativas” en ciencias históricas. Demuestra cómo a veces, contar una historia puede servir como explicación, tanto en la vida cotidiana como en la ciencia. Sin embargo, en la ciencia histórica, estas narrativas son mucho más detalladas y respaldadas por evidencia. - Modelos climáticos y 5. Pronósticos del tiempo: Estos ejemplos ilustran el uso de modelos complejos en ciencia para hacer predicciones. El profesor los usa para mostrar cómo la ciencia emplea herramientas mucho más sofisticadas y sistemáticas para hacer predicciones que las que usamos en la vida cotidiana. - Explicación del comportamiento de una presa: Este es un ejemplo de explicación reduccionista. El profesor lo usa para mostrar cómo los científicos e ingenieros explican sistemas complejos analizando sus partes componentes y sus interacciones, un enfoque sistemático que es común en ciencia pero raro en el conocimiento cotidiano. - Explicaciones en biología y medicina: Similar al ejemplo de la presa, esto ilustra nuevamente el enfoque reduccionista, pero en el contexto de las ciencias de la vida. Muestra cómo este método sistemático se aplica en diversos campos científicos.
Clase 11
La clase aborda cómo diferentes teorías y modelos pueden coexistir y ser utilizados en la investigación científica. Se enfatiza la importancia de la defensa sistemática del conocimiento y la eliminación de errores, destacando el papel crucial de la cuantificación en la justificación de las afirmaciones científicas.
Distinciones Fundamentales y Conceptos Clave
Teoría del Paradigma y Modelado:
- La teoría del paradigma y la teoría de la sistematicidad son compatibles y pueden superponerse en la investigación científica.
- La modelización se utiliza para la explicación y puede ser parte de la ciencia normal.
Diferentes Teorías Explicativas:
- Varias teorías pueden explicar el mismo fenómeno sin contradecirse.
- El deductivismo, la teoría de paradigmas y la teoría de la sistematicidad pueden ser aplicadas simultáneamente en una investigación.
Evaluación de Modelos Científicos:
- La práctica de evaluar y conectar teorías con el trabajo empírico es esencial para comprender la aplicabilidad de las teorías en diferentes contextos.
- La diversidad en ciencias y proyectos de investigación refleja cómo las filosofías de la ciencia pueden aplicarse de diferentes maneras.
Defensa de las Afirmaciones del Conocimiento y Eliminación de Errores
Importancia de la Defensa del Conocimiento:
- Las afirmaciones del conocimiento son falibles y deben ser defendidas sistemáticamente para evitar errores.
- En la ciencia, se intenta eliminar errores de manera más sistemática que en la vida cotidiana.
Ejemplos de Eliminación Sistemática de Errores:
- En matemáticas, una prueba establece la certeza de un teorema respecto a los axiomas.
- En las ciencias empíricas, los datos empíricos son cruciales y se utilizan de manera diferente dependiendo del campo de estudio.
Teorías Especulativas y su Prueba:
- Las teorías especulativas, como la mecánica cuántica o la teoría de la evolución, deben ser probadas rigurosamente para eliminar las incorrectas y mantener las correctas.
Procedimientos Sistemáticos en Disciplines Históricas:
- La crítica de fuentes y la validación de documentos son esenciales en la investigación histórica.
Cuantificación y Justificación del Conocimiento:
- La cuantificación de las afirmaciones de conocimiento es vital para su justificación.
- Ejemplo: La teoría de la tectónica de placas fue aceptada cuando se cuantificaron y justificaron ciertos fenómenos geológicos.
Ejemplo de la Geología:
- La idea de que las montañas se formaron por la contracción de la Tierra fue refutada mediante cálculos cuantitativos.
Parte 2
Esta clase ofrece una visión general de cómo la teoría de la sistematicidad intenta explicar qué hace que la ciencia sea única como forma de conocimiento, enfatizando su naturaleza más sistemática en comparación con el conocimiento cotidiano u otras formas de conocimiento.
- Defensa de las afirmaciones del conocimiento:
- La ciencia busca eliminar errores de manera sistemática.
- Se utilizan métodos como pruebas matemáticas, datos empíricos, experimentos y crítica de fuentes.
- La cuantificación juega un papel importante en la defensa de afirmaciones.
- Discurso crítico:
- Es un aspecto social de la ciencia que involucra la interacción entre científicos.
- Incluye instituciones como revisión por pares, discusiones en conferencias y publicaciones.
- Conexión epistémica:
- El conocimiento científico está más interconectado que el conocimiento cotidiano.
- Ayuda a distinguir entre ciencia de la ingeniería y desarrollo de productos.
- Ideal de completitud:
- La ciencia busca un conocimiento completo en su dominio.
- Esto contribuye al constante aumento del conocimiento científico.
- Generación sistemática de conocimiento:
- Incluye búsqueda sistemática de nuevos datos, cierre de brechas de conocimiento y explotación de otros dominios.
- La ciencia aprovecha sistemáticamente nuevas tecnologías y métodos.
- Estructura y representación del conocimiento:
- La ciencia desarrolla sistemas de nomenclatura, representaciones visuales y estructuras organizativas específicas.
- Esto aumenta la eficiencia en la percepción y comunicación del conocimiento.
- Retroalimentación positiva:
- Los diferentes aspectos de la sistematicidad se refuerzan mutuamente, creando una red compleja que caracteriza a la ciencia.
Además de los puntos principales ya mencionados, puedo extraer algunas otras ideas importantes del documento:
- Aplicación práctica: El profesor menciona que los estudiantes deben aplicar estas ideas a sus propios trabajos de investigación, sugiriendo que la teoría de la sistematicidad tiene relevancia práctica para los investigadores en formación.
- Interdisciplinariedad: Se hace énfasis en cómo diferentes campos científicos pueden beneficiarse mutuamente, por ejemplo, cómo la tecnología computacional ha impactado campos aparentemente no relacionados como la biotecnología vegetal.
- Ciencia a gran escala: Se menciona el fenómeno de la “big science”, ejemplificado por experimentos como el Gran Colisionador de Hadrones, donde miles de científicos colaboran en un solo proyecto.
- Evolución histórica: El profesor señala cómo la ciencia ha cambiado con el tiempo, por ejemplo, cómo el uso de computadoras se ha vuelto omnipresente en la investigación científica en los últimos 60-70 años.
- Diferencias entre ciencia y conocimiento cotidiano: A lo largo de la clase, se hacen comparaciones constantes entre cómo funciona la ciencia y cómo funciona el conocimiento cotidiano, resaltando las diferencias en sistematicidad.
- Importancia de la cuantificación: Se enfatiza cómo la cuantificación y el uso de las matemáticas permiten refutar teorías que cualitativamente parecen plausibles.
- Enfoque de fuerza bruta: Se menciona cómo en algunos campos, como la farmacología, se utilizan enfoques sistemáticos de “fuerza bruta” para explorar posibilidades, lo que ilustra otra forma de sistematicidad en la ciencia.
- Falibilidad del conocimiento científico: A pesar de su sistematicidad, se reconoce que el conocimiento científico es falible y está sujeto a errores, lo que justifica la necesidad de mecanismos de revisión y crítica.
- Aspectos sociales de la ciencia: Se discute cómo la organización social de la ciencia, incluyendo conferencias, revisiones por pares y publicaciones, contribuye a su sistematicidad.
- Relación con la filosofía de la ciencia: La clase parece ser parte de un curso más amplio sobre filosofía de la ciencia, sugiriendo que la teoría de la sistematicidad es una perspectiva dentro de este campo filosófico.
- Desafíos en la demarcación: Aunque no se aborda directamente, la discusión implica los desafíos en demarcar claramente entre ciencia y no-ciencia, un problema clásico en la filosofía de la ciencia.
Resumen (con IA)
Inductivismo
Importancia: Es fundamental para entender cómo se generaliza a partir de observaciones específicas. Es la base de la metodología científica tradicional. Limitaciones: El problema de la inducción y la posibilidad de llegar a conclusiones incorrectas a partir de datos limitados.
Definición del Inductivismo: El inductivismo es una aproximación filosófica a la metodología científica que sostiene que el conocimiento científico se construye principalmente a través de la observación cuidadosa y la generalización a partir de casos particulares. Según esta visión, los científicos comienzan con observaciones específicas, identifican patrones, y luego formulan teorías o leyes generales basadas en estas observaciones.
Los principales componentes del inductivismo son:
- Observación: La recolección cuidadosa y objetiva de datos empíricos.
- Generalización: La formulación de principios generales basados en patrones observados en los datos.
- Predicción: El uso de estos principios generales para hacer predicciones sobre futuros eventos o fenómenos no observados.
Problemas del Inductivismo:
- El problema de la inducción (Hume): David Hume argumentó que no hay justificación lógica para la inferencia inductiva. No hay garantía de que los patrones observados en el pasado continuarán en el futuro. Este es conocido como el “problema de la inducción” y plantea un desafío fundamental para el inductivismo.
- Carga teórica de la observación: Los filósofos posteriores, como N.R. Hanson y Thomas Kuhn, argumentaron que todas las observaciones están “cargadas de teoría”. Es decir, nuestras observaciones están influenciadas por nuestras teorías previas, expectativas y marcos conceptuales. Esto socava la idea de una observación puramente objetiva.
- Subdeterminación de la teoría por los datos: Este problema, destacado por W.V.O. Quine, señala que múltiples teorías pueden ser consistentes con el mismo conjunto de observaciones. Por lo tanto, las observaciones por sí solas no pueden determinar de manera única qué teoría es correcta.
- El problema de la relevancia: No está claro cómo determinar qué observaciones son relevantes para una hipótesis dada. El inductivismo no proporciona una guía clara sobre cómo seleccionar o priorizar las observaciones.
- La falacia de la afirmación del consecuente: La estructura lógica de la inferencia inductiva es formalmente falaz. Tiene la forma: “Si P, entonces Q. Q ocurre. Por lo tanto, P”. Esta es una falacia lógica.
- El problema de la generalización: ¿Cuántas observaciones son suficientes para justificar una generalización? El inductivismo no proporciona una respuesta clara a esta pregunta.
- La paradoja del cuervo (Hempel): Carl Hempel demostró que la lógica inductiva puede llevar a conclusiones contraintuitivas. Por ejemplo, observar un zapato rojo podría considerarse evidencia de que “todos los cuervos son negros”, lo cual parece absurdo.
- El nuevo enigma de la inducción (Goodman): Nelson Goodman mostró que hay infinitas generalizaciones compatibles con cualquier conjunto finito de observaciones, algunas de las cuales son claramente absurdas. Esto plantea la cuestión de cómo distinguimos entre generalizaciones “naturales” y “artificiales”.
- El problema de la base empírica (Popper): Karl Popper argumentó que no existe una “base empírica” pura de observaciones sobre la cual construir el conocimiento científico. Todas las observaciones involucran interpretación y están influenciadas por expectativas teóricas.
- Limitaciones prácticas: En muchos campos científicos, especialmente en las ciencias históricas como la paleontología o la cosmología, es imposible hacer observaciones directas de los fenómenos de interés.
Estas críticas al inductivismo han llevado a muchos filósofos de la ciencia a buscar alternativas, como el falsacionismo de Popper, los programas de investigación de Lakatos, o los paradigmas científicos de Kuhn. Sin embargo, es importante notar que, a pesar de estos problemas filosóficos, muchos científicos continúan utilizando métodos que podrían describirse como inductivos en su práctica diaria.
En conclusión, aunque el inductivismo ofrece una descripción intuitivamente atractiva de cómo funciona la ciencia, enfrenta serios desafíos filosóficos que han llevado a un replanteamiento significativo de nuestra comprensión de la metodología científica y la naturaleza del conocimiento científico.
Deductivismo
Importancia: Proporciona un enfoque lógico para derivar conclusiones a partir de premisas. Es crucial para la formulación de teorías y la validación de hipótesis. Limitaciones: Depende de la validez de las premisas y no puede generar nuevo conocimiento a partir de la observación.
Definición del Deductivismo: El deductivismo es una aproximación filosófica a la metodología científica que sostiene que el conocimiento científico se construye principalmente a través del razonamiento deductivo a partir de teorías o hipótesis generales. Según esta visión, los científicos comienzan con teorías o hipótesis amplias y luego derivan consecuencias lógicas que pueden ser probadas empíricamente.
Los principales componentes del deductivismo son:
- Teoría o hipótesis: Una proposición general que explica un fenómeno.
- Deducción: El proceso de derivar consecuencias lógicas de la teoría.
- Predicción: Las consecuencias derivadas que pueden ser probadas empíricamente.
- Prueba empírica: La comparación de las predicciones con las observaciones.
Problemas del Deductivismo:
- El problema de la justificación de las premisas: El deductivismo no proporciona una explicación satisfactoria de cómo se generan o justifican las teorías o hipótesis iniciales. ¿De dónde provienen estas ideas generales?
- La falacia de afirmación del consecuente: Aunque el deductivismo evita este problema en su forma lógica, en la práctica científica, a menudo se utiliza la confirmación de predicciones como evidencia a favor de una teoría, lo cual es lógicamente problemático.
- El problema de Duhem-Quine: Pierre Duhem y W.V.O. Quine señalaron que las teorías científicas no se prueban de forma aislada, sino como parte de un sistema más amplio de creencias y suposiciones auxiliares. Esto complica la interpretación de los resultados empíricos.
- La subdeterminación de la teoría por los datos: Al igual que con el inductivismo, múltiples teorías pueden ser consistentes con el mismo conjunto de observaciones, lo que significa que los datos empíricos no pueden determinar de manera única qué teoría es correcta.
- El problema de la relevancia: No está claro cómo determinar qué consecuencias deductivas de una teoría son relevantes o importantes para probarla.
- La carga teórica de la observación: Las observaciones utilizadas para probar las predicciones deductivas están influenciadas por teorías y expectativas previas, lo que complica la idea de una prueba empírica “pura”.
- El problema de la inducción disfrazada: Aunque el deductivismo pretende evitar los problemas de la inducción, en la práctica, a menudo se utiliza el éxito pasado de una teoría para justificar su uso continuo, lo cual es una forma de razonamiento inductivo.
- La rigidez de las teorías: El deductivismo puede llevar a una visión demasiado rígida de las teorías científicas, donde cualquier discrepancia con las predicciones podría llevar al rechazo de la teoría entera.
- El problema de la creatividad científica: El deductivismo no proporciona una explicación satisfactoria de cómo los científicos generan nuevas ideas o teorías innovadoras.
- La idealización en la ciencia: Muchas teorías científicas involucran idealizaciones o simplificaciones que no se corresponden exactamente con la realidad. El deductivismo puro tiene dificultades para acomodar este aspecto de la práctica científica.
- El problema de la asimetría: Karl Popper señaló que mientras que ninguna cantidad de observaciones confirmatorias puede probar definitivamente una teoría universal, una sola observación contradictoria puede refutarla. Esta asimetría plantea desafíos para una metodología puramente deductiva.
- La naturaleza probabilística de algunas teorías: Algunas teorías científicas, especialmente en física cuántica y ciencias sociales, son inherentemente probabilísticas. El deductivismo clásico tiene dificultades para manejar este tipo de teorías.
Estas críticas al deductivismo han llevado a muchos filósofos de la ciencia a buscar modelos más sofisticados de la metodología científica. Por ejemplo, el método hipotético-deductivo intenta combinar elementos del inductivismo y el deductivismo, mientras que enfoques más recientes como el bayesianismo ofrecen una perspectiva probabilística del razonamiento científico.
En conclusión, aunque el deductivismo ofrece una descripción atractiva de cómo las teorías científicas pueden ser rigurosamente probadas, enfrenta desafíos significativos cuando se aplica a la práctica científica real. La filosofía de la ciencia contemporánea generalmente reconoce que la metodología científica es más compleja y matizada de lo que sugiere cualquier modelo simple, ya sea inductivo o deductivo.
Teoría de los paradigmas
Importancia: Introduce la idea de que la ciencia progresa a través de revoluciones paradigmáticas y no solo mediante acumulación gradual de conocimiento. Limitaciones: Puede subestimar la continuidad y la acumulación de conocimiento entre paradigmas.
Definición de la Teoría de los Paradigmas: La teoría de los paradigmas, presentada por Thomas Kuhn en su influyente libro “La estructura de las revoluciones científicas” (1962), propone que el desarrollo científico no es un proceso continuo y acumulativo, sino que ocurre a través de cambios revolucionarios en los marcos conceptuales fundamentales o “paradigmas”.
Componentes principales:
- Paradigma: Un conjunto de teorías, métodos, estándares y suposiciones que definen una práctica científica normal en un momento dado.
- Ciencia normal: El periodo en el que los científicos trabajan dentro de un paradigma establecido, resolviendo “rompecabezas” dentro de ese marco.
- Anomalías: Problemas o observaciones que el paradigma actual no puede explicar adecuadamente.
- Crisis: Cuando las anomalías se acumulan y socavan la confianza en el paradigma actual.
- Revolución científica: El proceso de cambio de un paradigma a otro.
- Inconmensurabilidad: La idea de que los paradigmas sucesivos pueden ser fundamentalmente incompatibles o difíciles de comparar directamente.
Problemas de la Teoría de los Paradigmas:
- Vaguedad en la definición de “paradigma”: Kuhn usó el término “paradigma” de múltiples maneras, lo que ha llevado a confusiones y debates sobre su significado preciso.
- Dificultad para identificar paradigmas en algunas disciplinas: Mientras que la teoría parece funcionar bien para algunas ciencias físicas, es más difícil identificar paradigmas claros en ciencias sociales o en campos interdisciplinarios.
- El problema de la inconmensurabilidad: La idea de que los paradigmas sucesivos son inconmensurables ha sido criticada por implicar un relativismo extremo o por exagerar las diferencias entre paradigmas.
- Subestimación de la continuidad en la ciencia: Algunos críticos argumentan que Kuhn exagera la discontinuidad en el desarrollo científico y subestima los elementos que persisten a través de los cambios de paradigma.
- Desafíos a la noción de “revoluciones”: No todos los cambios significativos en la ciencia parecen encajar en el modelo de “revolución” de Kuhn.
- Problema de la elección racional entre paradigmas: Si los paradigmas son verdaderamente inconmensurables, ¿cómo pueden los científicos elegir racionalmente entre ellos?
- Subjetividad en la identificación de crisis y revoluciones: La determinación de cuándo una acumulación de anomalías constituye una crisis puede ser subjetiva.
- Simplificación excesiva de la historia de la ciencia: Algunos historiadores de la ciencia argumentan que el modelo de Kuhn simplifica demasiado los complejos desarrollos históricos en la ciencia.
- Falta de predictibilidad: La teoría de Kuhn no ofrece una manera clara de predecir cuándo ocurrirán las revoluciones científicas o qué forma tomarán.
- Desafíos al progreso científico: Si los paradigmas sucesivos son inconmensurables, ¿cómo podemos hablar de progreso científico a largo plazo?
- Tensión entre descripción y prescripción: No está claro si la teoría de Kuhn es puramente descriptiva o si también tiene implicaciones prescriptivas para la práctica científica.
- El papel de factores externos: Aunque Kuhn reconoce la influencia de factores sociales y psicológicos en los cambios de paradigma, algunos críticos argumentan que subestima su importancia.
- Problema del criterio para la ciencia madura: La distinción de Kuhn entre ciencia “madura” (paradigmática) e “inmadura” (pre-paradigmática) ha sido criticada por ser demasiado vaga o arbitraria.
- Desafío a la objetividad científica: Al enfatizar el papel de los factores sociológicos y psicológicos en los cambios de paradigma, la teoría de Kuhn ha sido vista por algunos como un desafío a la noción tradicional de objetividad científica.
A pesar de estas críticas, la teoría de los paradigmas de Kuhn ha tenido un impacto duradero en la filosofía de la ciencia y ha influido en campos más allá de la ciencia, incluyendo las humanidades y las ciencias sociales. Ha llevado a una mayor apreciación de los factores históricos, sociológicos y psicológicos en el desarrollo científico, y ha desafiado las visiones más simplistas del progreso científico como un proceso puramente racional y acumulativo.
En última instancia, aunque la teoría de los paradigmas tiene sus limitaciones, ha enriquecido nuestra comprensión de la naturaleza compleja y multifacética del cambio científico.
Teoría de la sistematicidad
Importancia: Destaca la sistematicidad como una característica definitoria de la ciencia, diferenciándola del conocimiento cotidiano. Limitaciones: Puede ser más difícil de aplicar en campos científicos emergentes o interdisciplinarios.
Definición de la Teoría de la Sistematicidad: La teoría de la sistematicidad, desarrollada principalmente por Paul Hoyningen-Huene, propone que la ciencia se distingue de otras formas de conocimiento por su mayor grado de sistematicidad. Esta teoría argumenta que la ciencia es más sistemática que el conocimiento cotidiano o no científico en varias dimensiones.
Componentes principales:
- Sistematicidad: Un alto grado de organización, estructura y coherencia en la producción y evaluación del conocimiento.
- Multidimensionalidad: La sistematicidad se manifiesta en múltiples aspectos de la práctica científica.
- Grado: La diferencia entre ciencia y no-ciencia es una cuestión de grado, no de tipo.
Las nueve dimensiones de sistematicidad identificadas por Hoyningen-Huene son:
- Descripciones
- Explicaciones
- Predicciones
- Defensa de las afirmaciones de conocimiento
- Discurso crítico
- Conexión epistémica
- Ideal de completitud
- Generación de conocimiento
- Representación del conocimiento
Problemas de la Teoría de la Sistematicidad:
- Vaguedad en la definición de “sistematicidad”: Aunque la teoría proporciona ejemplos, el concepto de sistematicidad puede ser difícil de definir con precisión.
- Dificultad en la medición: No está claro cómo medir o cuantificar el grado de sistematicidad en diferentes campos o prácticas.
- Variación entre disciplinas: Diferentes campos científicos pueden exhibir sistematicidad en diferentes grados o de diferentes maneras, lo que complica la aplicación uniforme de la teoría.
- Desafío a la demarcación: Aunque la teoría propone que la diferencia entre ciencia y no-ciencia es de grado, aún enfrenta el problema de dónde trazar la línea.
- Posible sesgo hacia las ciencias naturales: La teoría podría favorecer implícitamente a las ciencias naturales como modelo de sistematicidad, potencialmente subestimando la naturaleza de las ciencias sociales y humanas.
- Relación con otras teorías de la ciencia: No está completamente claro cómo la teoría de la sistematicidad se relaciona o integra con otras perspectivas filosóficas sobre la ciencia.
- El problema del reduccionismo: La teoría podría ser criticada por reducir la complejidad de la práctica científica a una sola característica (sistematicidad).
- Desafío a la innovación y creatividad: Un énfasis excesivo en la sistematicidad podría subestimar el papel de la creatividad y la innovación en el avance científico.
- Tensión con la práctica científica real: La ciencia en la práctica puede ser menos sistemática de lo que sugiere la teoría, especialmente en las etapas iniciales de investigación o en campos emergentes.
- Problema de la circularidad: Podría argumentarse que la teoría define la ciencia como sistemática y luego encuentra sistematicidad en la ciencia.
- Desafío a la dinámica del cambio científico: La teoría podría tener dificultades para explicar cambios radicales en la práctica científica o revoluciones científicas.
- Posible subestimación de factores externos: Al centrarse en la sistematicidad interna, la teoría podría subestimar la influencia de factores sociales, culturales y económicos en la práctica científica.
- Problema de la validez transcultural: No está claro si la noción de sistematicidad se aplica igualmente a todas las tradiciones científicas en diferentes culturas y períodos históricos.
- Desafío a la pluralidad metodológica: La teoría podría ser interpretada como favoreciendo un enfoque metodológico único, lo cual es problemático dado el pluralismo metodológico en muchas disciplinas científicas.
A pesar de estas críticas, la teoría de la sistematicidad ofrece una perspectiva valiosa sobre la naturaleza de la ciencia. Proporciona un marco para entender las diferencias entre el conocimiento científico y otras formas de conocimiento, y ofrece una alternativa a las visiones más tradicionales de la demarcación científica.
La teoría de la sistematicidad tiene la ventaja de ser más flexible que algunas teorías anteriores, reconociendo que la ciencia es una práctica compleja y multifacética. También permite una visión más matizada de la relación entre la ciencia y otras formas de investigación sistemática.
En última instancia, aunque la teoría de la sistematicidad enfrenta desafíos, ha contribuido significativamente al debate en curso sobre la naturaleza de la ciencia y su relación con otras formas de conocimiento.
Ampliación del Curso para Mayor Profundida
Empirismo:
- Para qué sirve: Complementa el inductivismo al enfatizar la experiencia sensorial como base del conocimiento.
Racionalismo:
- Para qué sirve: Contrasta con el empirismo y destaca la importancia de la razón y el pensamiento lógico.
Pragmatismo:
- Para qué sirve: Introduce una perspectiva sobre cómo la utilidad práctica de una creencia influye en su verdad.
Criticismo Kantiano:
- Para qué sirve: Combina elementos del empirismo y racionalismo y plantea cómo nuestra mente estructura el conocimiento.
Positivismo Lógico:
- Para qué sirve: Enfatiza la verificabilidad empírica y la lógica en el conocimiento científico, influenciando el desarrollo de la filosofía de la ciencia en el siglo XX.
Teoría de la Coherencia y Correspondencia:
- Para qué sirve: Proporciona perspectivas adicionales sobre la naturaleza de la verdad y cómo se justifica el conocimiento.
Ver también:
1. Falsacionismo (Karl Popper, 1930s-1950s)
- Descripción: Popper propuso que, en lugar de buscar verificaciones, los científicos deberían intentar falsificar sus hipótesis. Una teoría es científica si es falsificable.
- Importancia: Introdujo una forma crítica de evaluar teorías científicas mediante su capacidad para ser refutadas.
2. Teoría de los Paradigmas (Thomas Kuhn, 1960s)
- Descripción: Kuhn argumentó que la ciencia progresa a través de revoluciones paradigmáticas, donde un paradigma científico dominante es reemplazado por otro incompatible.
- Importancia: Enfatizó el papel de los cambios discontinuos y las revoluciones en el progreso científico.
3. Programas de Investigación (Imre Lakatos, 1970s)
- Descripción: Lakatos combinó ideas de Popper y Kuhn, sugiriendo que los científicos trabajan dentro de programas de investigación con un núcleo teórico “irrefutable” y un cinturón protector de hipótesis auxiliares que pueden ser modificadas.
- Importancia: Proporcionó un marco para entender cómo las teorías científicas pueden ser protegidas y desarrolladas a lo largo del tiempo.
4. Constructivismo (Jean Piaget, Lev Vygotsky, 1960s-1970s)
- Descripción: Plantea que el conocimiento es construido activamente por los individuos a través de la interacción con su entorno y no simplemente adquirido.
- Importancia: Influyó en la epistemología, la psicología y la educación, enfatizando el papel activo del sujeto en la creación del conocimiento.
5. Anarquismo Epistemológico (Paul Feyerabend, 1970s)
- Descripción: Feyerabend argumentó contra la idea de una metodología científica universal, sugiriendo que “todo vale” en la práctica científica.
- Importancia: Criticó la rigidez de los métodos científicos establecidos y defendió la diversidad metodológica.
6. Realismo Científico y Antirrealismo (1980s-presente)
- Descripción: El realismo científico sostiene que las teorías científicas describen la realidad objetiva, mientras que el antirrealismo (como el instrumentalismo) ve las teorías como herramientas útiles sin necesariamente ser verdaderas.
- Importancia: Esta discusión aborda la naturaleza de la verdad y la realidad en la ciencia.
7. Teoría de la Coherencia (1980s-presente)
- Descripción: Sostiene que la verdad de una proposición depende de su coherencia con un conjunto de creencias.
- Importancia: Ofrece una alternativa a la teoría de la correspondencia de la verdad.
8. Epistemología Feminista (Sandra Harding, Donna Haraway, 1980s-presente)
- Descripción: Examina cómo los factores sociales, incluyendo el género, influyen en el conocimiento científico y aboga por una ciencia más inclusiva.
- Importancia: Introdujo nuevas perspectivas críticas sobre cómo se produce y valida el conocimiento.
9. Teoría del Conocimiento Distribuido (Edwin Hutchins, 1990s-presente)
- Descripción: Propone que el conocimiento no reside solo en individuos, sino que está distribuido a través de sistemas sociales y artefactos.
- Importancia: Amplió la comprensión del conocimiento más allá del individuo, considerando los contextos sociales y tecnológicos.
10. Epistemología Virtuosa (Linda Zagzebski, 1990s-presente)
- Descripción: Enfatiza las virtudes intelectuales, como la honestidad y la diligencia, como fundamentales para la adquisición de conocimiento.
- Importancia: Introdujo un enfoque ético en la teoría del conocimiento.
11. Naturalismo Epistemológico (Quine, 1960s-presente)
- Descripción: Argumenta que la epistemología debe ser vista como una rama de la ciencia empírica, integrándose con la psicología cognitiva.
- Importancia: Promueve una visión empirista y científica del conocimiento, rechazando las distinciones tradicionales entre filosofía y ciencia.
12. Epistemología Social (Alvin Goldman, Steve Fuller, 1990s-presente)
- Descripción: Estudia los aspectos sociales del conocimiento, como la transmisión del conocimiento y la estructura de las comunidades epistémicas.
- Importancia: Subraya la importancia de los contextos sociales en la formación y validación del conocimiento.
Se libre de hacer tu aporte a la comunidad de la siguiente manera: si tenes una agradecimiento, crítica, idea, concepto o texto que sugerir, lo podes compartir comentando al final del post con una cuenta (gratuita) en GitHub.