De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

El modelo deductivo-nomológico ( modelo DN ) de la explicación científica, también conocido como Hempel modelo 's , el Hempel- Oppenheim modelo , el Popper modelo -Hempel , o el modelo de cobertura legal , es una vista formal de contestar preguntas científicamente preguntando, " Por qué...?". El modelo DN plantea la explicación científica como una estructura deductiva , es decir, una en la que la verdad de sus premisas implica la verdad de su conclusión, que depende de una predicción o postdicción precisa del fenómeno a explicar.

Debido a problemas relacionados con la capacidad de los humanos para definir, descubrir y conocer la causalidad , esto se omitió en las formulaciones iniciales del modelo DN. Se pensaba que la causalidad se aproximaba incidentalmente mediante una selección realista de premisas que derivan el fenómeno de interés de las condiciones iniciales observadas más las leyes generales . Aún así, el modelo DN permitía formalmente factores causalmente irrelevantes. Además, la derivabilidad de observaciones y leyes a veces arrojaba respuestas absurdas.

Cuando el empirismo lógico cayó en desgracia en la década de 1960, el modelo DN fue ampliamente visto como un modelo defectuoso o muy incompleto de explicación científica. No obstante, siguió siendo una versión idealizada de la explicación científica y bastante precisa cuando se aplica a la física moderna . A principios de la década de 1980, una revisión del modelo DN enfatizó la máxima especificidad para la relevancia de las condiciones y axiomas establecidos. Junto con el modelo estadístico inductivo de Hempel , el modelo DN forma el modelo de ley de cobertura de la explicación científica , que también se denomina, desde el ángulo crítico, teoría de la subsunción .

Formulario [ editar ]

El término deductivo distingue el determinismo pretendido del modelo DN del probabilismo de inferencias inductivas . [1] El término nomológico se deriva de la palabra griega νόμος o nomos , que significa "ley". [1] El modelo DN sostiene una visión de la explicación científica cuyas condiciones de adecuación (CA) —semiformal pero enunciado clásicamente— son derivabilidad (CA1), semejanza de ley (CA2), contenido empírico (CA3) y verdad (CA4). [2]

En el modelo DN, una ley axiomatiza una generalización irrestricta del antecedente A al consecuente B mediante una proposición condicional - Si A, entonces B - y tiene un contenido empírico comprobable. [3] Una ley se diferencia de la mera regularidad verdadera —por ejemplo, George siempre lleva solo billetes de $ 1 en su billetera— al respaldar afirmaciones contrafactuales y así sugerir lo que debe ser verdad, [4] mientras sigue la estructura axiomática de una teoría científica. [5]

El fenómeno a explicar es el explanandum —un acontecimiento, ley o teoría— mientras que las premisas para explicarlo son explanans , verdaderos o altamente confirmados, que contienen al menos una ley universal y conllevan el explanandum. [6] [7] Así, dados los explanans como condiciones iniciales, específicas C 1 , C 2 . . . C n más leyes generales L 1 , L 2 . . . L n , el fenómeno E como explanandum es una consecuencia deductiva, explicó de esta manera científicamente. [6]

Raíces [ editar ]

La explicación científica de Aristóteles en Física se asemeja al modelo DN, una forma idealizada de explicación científica. [7] El marco de la física aristotélica - la metafísica aristotélica - reflejó la perspectiva de este principalmente biólogo, quien, en medio de la innegable intencionalidad de los seres vivos, formalizó el vitalismo y la teleología , una moral intrínseca en la naturaleza. [8] Con el surgimiento del copernicanismo , sin embargo, Descartes introdujo la filosofía mecánica , luego NewtonUna explicación rigurosamente planteada como una ley, tanto Descartes como especialmente Newton rehuían la teleología dentro de la filosofía natural . [9] En 1740, David Hume [10] apuntó el tenedor de Hume , [11] destacó el problema de la inducción , [12] y encontró que los humanos ignoraban la causalidad necesaria o suficiente. [13] [14] Hume también destacó la brecha hecho / valor , ya que lo que es no revela en sí mismo lo que debería . [15]

Cerca de 1780 , contrarrestando el empirismo ostensiblemente radical de Hume , Immanuel Kant destacó el racionalismo extremo —como el de Descartes o Spinoza— y buscó un término medio. Al inferir que la mente organizara la experiencia del mundo en sustancia , espacio y tiempo , Kant colocó la mente como parte de la constelación causal de la experiencia y, por lo tanto, encontró que la teoría del movimiento de Newton era universalmente verdadera, [16] pero el conocimiento de las cosas en sí mismas era imposible. [14] Salvaguardar la cienciaEntonces, paradójicamente, Kant lo despojó del realismo científico . [14] [17] [18] Abortando la misión inductivista de Francis Bacon de disolver el velo de la apariencia para descubrir el noumena - visión metafísica de las verdades últimas de la naturaleza - el idealismo trascendental de Kant encargó a la ciencia simplemente modelar patrones de fenómenos . Salvaguardando también la metafísica, descubrió que las constantes de la mente contenían también verdades morales universales , [19] y lanzó el idealismo alemán , cada vez más especulativo.

Auguste Comte encontró que el problema de la inducción era bastante irrelevante, ya que la inducción enumerativa se basa en el empirismo disponible, mientras que el punto de la ciencia no es la verdad metafísica. Comte descubrió que el conocimiento humano había evolucionado de lo teológico a lo metafísico y lo científico, la etapa final, rechazando tanto la teología como la metafísica por plantear preguntas sin respuesta y por plantear respuestas no verificables. Comte en la década de 1830 expuso el positivismo —la primera filosofía moderna de la ciencia y simultáneamente una filosofía política [20] - rechazando conjeturas sobre inobservables , rechazando así la búsqueda de causas . [21] El positivismo predice observaciones, confirma las predicciones y establece una ley , que luego se aplica en beneficio de la sociedad humana. [22] Desde finales del siglo XIX hasta principios del siglo XX, la influencia del positivismo se extendió por todo el mundo. [20] Mientras tanto, la selección natural de la teoría de la evolución trajo la revolución copernicana a la biología y dio lugar a la primera alternativa conceptual al vitalismo y la teleología . [8]

Crecimiento [ editar ]

Mientras que el positivismo de Comte plantea la ciencia como la descripción , el positivismo lógico surgió a finales de 1920 y planteó la ciencia como explicación , tal vez para mejor ciencias empíricas unificar al cubrir no sólo la ciencia fundamental , es decir, la física fundamental -pero ciencias especiales , también, como la biología, psicología, economía y antropología . [23] Después de la derrota del nacionalsocialismo con el fin de la Segunda Guerra Mundial en 1945, el positivismo lógico cambió a una variante más suave, el empirismo lógico . [24] Todas las variantes del movimiento, que duró hasta 1965, son neopositivismo, [25] compartiendo la búsqueda del verificacionismo . [26]

Los neopositivistas lideraron el surgimiento de la subdisciplina filosófica filosofía de la ciencia , investigando tales cuestiones y aspectos de la teoría y el conocimiento científicos. [24] El realismo científico toma declaraciones de la teoría científica en valor nominal , por lo tanto otorga ya sea la falsedad o verdad, probable o aproximado o real. [17] Los neopositivistas sostuvieron el antirrealismo científico como instrumentalismo , sosteniendo la teoría científica como simplemente un dispositivo para predecir las observaciones y su curso, mientras que las declaraciones sobre los aspectos no observables de la naturaleza son elípticas o metafóricas de sus aspectos observables, más bien. [27]

El modelo DN recibió su declaración más detallada e influyente de Carl G Hempel , primero en su artículo de 1942 "La función de las leyes generales en la historia", y más explícitamente con Paul Oppenheim en su artículo de 1948 "Estudios en la lógica de la explicación". [28] [29] El principal empirista lógico, Hempel adoptó la visión empirista humeana de que los humanos observan la secuencia de eventos sensoriales, no causa y efecto, [23] ya que las relaciones causales y los mecanismos casuales son inobservables. [30] modelo DN no pasa por la causalidad allá de la mera conjunción constante : primero un evento como A , entonces siempre un evento como B . [23]

Hempel sostuvo las leyes naturales —regularidades empíricamente confirmadas— como satisfactorias, y si se incluyen de manera realista para aproximar la causalidad. [6] En artículos posteriores, Hempel defendió el modelo DN y propuso una explicación probabilística mediante el modelo estadístico inductivo (modelo IS). [6] El modelo DN y el modelo IS, en el que la probabilidad debe ser alta, como al menos el 50% [31], forman juntos el modelo de ley de cobertura , [6] como lo nombró un crítico, William Dray . [32] La derivación de leyes estadísticas de otras leyes estadísticas pasa al modelo deductivo-estadístico (modelo DS). [31] [33] Georg Henrik von Wright , otro crítico, nombró la teoría de la subsunción de la totalidad . [34]

Rechazar [ editar ]

En medio del fracaso de los principios fundamentales del neopositivismo , [35] Hempel abandonó en 1965 el verificacionismo, señalando la desaparición del neopositivismo. [36] Desde 1930 en adelante, Karl Popper había refutado cualquier positivismo afirmando el falsacionismo , que Popper afirmó que había matado al positivismo, aunque, paradójicamente, Popper era comúnmente confundido con un positivista. [37] [38] Incluso el libro de Popper de 1934 [39] adopta el modelo DN, [7] [28] ampliamente aceptado como modelo de explicación científica mientras la física siguió siendo el modelo de ciencia examinado por los filósofos de la ciencia. [30] [40]

En la década de 1940, llenando la gran brecha observacional entre la citología [41] y la bioquímica , [42] biología celular surgió [43] y estableció existencia de células orgánulos además del núcleo . Lanzado a fines de la década de 1930, el programa de investigación de biología molecular descifró un código genético a principios de la década de 1960 y luego convergió con la biología celular como biología celular y molecular , sus avances y descubrimientos desafiando el modelo DN al llegar en búsqueda no de una explicación legal sino de mecanismos causales. . [30] La biología se convirtió en un nuevo modelo de ciencia, mientras que las ciencias especialesya no se pensaba que eran defectuosos por carecer de leyes universales, como las soporta la física. [40]

En 1948, cuando explicaron el modelo DN y establecieron las condiciones semiformales de adecuación de la explicación científica , Hempel y Oppenheim reconocieron la redundancia del tercer contenido empírico , implícito en los otros tres: derivabilidad , similitud de leyes y verdad . [2] A principios de la década de 1980, ante la opinión generalizada de que la causalidad garantiza la relevancia de los explanans, Wesley Salmon pidió devolver la causa al porque , [44] y junto con James Fetzer ayudó a reemplazar el contenido empírico de CA3 con CA3 'especificidad máxima estricta . [45]

Salmon introdujo la explicación mecánica causal , sin aclarar nunca cómo procede, pero reviviendo el interés de los filósofos por tal. [30] A través de las deficiencias del modelo estadístico inductivo de Hempel (modelo IS), Salmon introdujo el modelo de relevancia estadística (modelo SR). [7] Aunque el modelo DN siguió siendo una forma idealizada de explicación científica, especialmente en las ciencias aplicadas , [7] la mayoría de los filósofos de la ciencia consideran que el modelo DN es defectuoso al excluir muchos tipos de explicaciones generalmente aceptadas como científicas. [33]

Fortalezas [ editar ]

Como teoría del conocimiento, la epistemología se diferencia de la ontología , que es una subrama de la metafísica , la teoría de la realidad. [46] La ontología plantea qué categorías de ser, qué tipo de cosas existen, y así, aunque el compromiso ontológico de una teoría científica puede modificarse a la luz de la experiencia, un compromiso ontológico precede inevitablemente a la investigación empírica. [46]

Las leyes naturales , así llamadas, son enunciados de las observaciones de los seres humanos, por lo que son epistemológicas —en lo que respecta al conocimiento humano— epistémico . Los mecanismos y estructuras causales que existen supuestamente independientemente de las mentes existen, o existirían, en la estructura misma del mundo natural y, por lo tanto, son ontológicos, el óntico . Desdibujar epistémico con óntico —como presumir imprudentemente una ley natural para referirse a un mecanismo causal, o para rastrear estructuras de manera realista durante transiciones no observadas, o para ser verdaderas regularidades siempre invariables— tiende a generar un error de categoría . [47] [48]

Descartando los compromisos ónticos, incluida la causalidad per se , el modelo DN permite reducir las leyes de una teoría a, es decir, subsumirlas, las leyes de una teoría más fundamental. Las leyes de la teoría superior se explican en el modelo DN mediante las leyes de la teoría inferior. [5] [6] Por lo tanto, el éxito epistémica de newtoniana de la teoría de la ley de la gravitación universal se reduce a-por lo tanto se explica por caso Albert Einstein 's teoría general de la relatividad , a pesar de los descartes de Einstein reclamo óntica de Newton que el éxito epistémica de la gravitación universal predicción de Kepler's leyes del movimiento planetario [49] es a través de un mecanismo causal de una fuerza de atracción recta que atraviesa instantáneamenteespacio absoluto a pesar del tiempo absoluto .

El modelo de ley de cobertura refleja la visión del neopositivismo de la ciencia empírica , una visión que interpreta o presume la unidad de la ciencia , según la cual todas las ciencias empíricas son ciencia fundamental , es decir, física fundamental, o son ciencias especiales , ya sea astrofísica , química, biología, geología , etc. psicología, economía, etc. [40] [50] [51] Todas las ciencias especiales se conectarían a través del modelo de ley de cobertura. [52] Y al establecer las condiciones de los límites al proporcionar las leyes del puente, cualquier ley especial se reduciría a una ley especial inferior, reduciéndose en última instancia —teóricamente, aunque generalmente no en la práctica— a la ciencia fundamental. [53] [54] ( Las condiciones de frontera son condiciones específicas por las cuales ocurren los fenómenos de interés. Las leyes puente traducen términos de una ciencia a términos de otra ciencia). [53] [54]

Debilidades [ editar ]

Según el modelo DN, si uno pregunta, "¿Por qué esa sombra mide 20 pies de largo?", Otro puede responder, "Porque el asta de la bandera mide 15 pies de alto, el Sol está en un ángulo xy las leyes del electromagnetismo ". [6] Sin embargo, por un problema de simetría, si uno preguntaba: "¿Por qué ese asta de bandera mide 15 pies de alto?", Otro podría responder: "Porque esa sombra tiene 20 pies de largo, el Sol está en un ángulo xy las leyes del electromagnetismo". , igualmente una deducción de las condiciones observadas y leyes científicas, pero una respuesta claramente incorrecta. [6] Por el problema de la irrelevancia, si uno pregunta: "¿Por qué ese hombre no quedó embarazada?", Uno podría responder en parte, entre los explanans, "Porque tomó píldoras anticonceptivas", si de hecho las tomó, y la ley de su prevención del embarazo, como modelo de ley de cobertura, no impone ninguna restricción para excluir esa observación de los explanans.

Muchos filósofos han concluido que la causalidad es parte integral de la explicación científica. [55] El modelo DN ofrece una condición necesaria de una explicación causal (predicción exitosa) pero no condiciones suficientes de explicación causal, ya que una regularidad universal puede incluir relaciones espúreas o correlaciones simples, por ejemplo, Z siempre sigue a Y , pero no a Z debido a Y , en lugar y y, a continuación Z como un efecto de X . [55] Al relacionar la temperatura, la presión y el volumen de gas dentro de un contenedor, la ley de Boylepermite la predicción de una variable desconocida —volumen, presión o temperatura— pero no explica por qué esperar eso, a menos que se agregue, quizás, la teoría cinética de los gases . [55] [56]

Las explicaciones científicas cada vez más no plantean el determinismo 's leyes universales, pero probabilismo ' s casualidad, [57] ceteris paribus leyes. [40] La contribución del tabaquismo al cáncer de pulmón falla incluso en el modelo estadístico inductivo (modelo IS), que requiere una probabilidad superior a 0,5 (50%). [58] (La probabilidad varía de forma estándar de 0 (0%) a 1 (100%)). Epidemiología , una ciencia aplicada que utiliza estadísticasen busca de asociaciones entre eventos, no puede mostrar causalidad, pero encontró consistentemente una mayor incidencia de cáncer de pulmón en fumadores en comparación con no fumadores similares, aunque la proporción de fumadores que desarrollan cáncer de pulmón es modesta. [59] En comparación con los no fumadores, sin embargo, los fumadores como grupo mostraron más de 20 veces el riesgo de cáncer de pulmón y, junto con la investigación básica , se llegó al consenso de que el tabaquismo se había explicado científicamente como una causa de cáncer de pulmón, [60] responsable de algunos casos que sin fumar no habrían ocurrido, [59] una causalidad contrafactual probabilística . [61] [62]

Acción de cobertura [ editar ]

A través de una explicación similar a la ley , la física fundamental —a menudo percibida como ciencia fundamental— ha procedido a través de la relación entre teorías y la reducción de la teoría, resolviendo así las paradojas experimentales con gran éxito histórico, [63] parecido al modelo de ley de cobertura. [64] A principios del siglo XX, Ernst Mach y Wilhelm Ostwald se habían resistido a la reducción de la termodinámica de Ludwig Boltzmann —y, por lo tanto, a la ley de Boyle [65] - a la mecánica estadística, en parte porque se basaba en la teoría cinética del gas ,[56] dependiente de la teoría atómico / molecular de la materia . [66] Tanto Mach como Ostwald vieron la materia como una variante de la energía y las moléculas como ilusiones matemáticas, [66] como incluso Boltzmann pensó que era posible. [67]

En 1905, a través de la mecánica estadística, Albert Einstein predijo el fenómeno del movimiento browniano, inexplicable desde que lo informó en 1827 el botánico Robert Brown . [66] Pronto, la mayoría de los físicos aceptaron que los átomos y las moléculas eran inobservables pero reales. [66] También en 1905, Einstein explicó que la energía del campo electromagnético se distribuye en partículas , lo que se puso en duda hasta que esto ayudó a resolver la teoría atómica en las décadas de 1910 y 1920. [68] Mientras tanto, todos los fenómenos físicos conocidos eran gravitacionales o electromagnéticos , [69] cuyas dos teorías estaban desalineadas. [70] Sin embargo, la creencia en el éter como fuente de todos los fenómenos físicos fue prácticamente unánime. [71] [72] [73] [74] En paradojas experimentales, [75] los físicos modificaron las propiedades hipotéticas del éter. [76]

Al considerar el éter luminífero como una hipótesis inútil, [77] Einstein en 1905 unificó a priori todos los marcos de referencia inerciales para enunciar el principio especial de la relatividad, [78] que, al omitir el éter, [79] convirtió el espacio y el tiempo en fenómenos relativos cuya relatividad se alineaba electrodinámica con el principio newtoniano de relatividad galileana o invariancia . [63] [80] Originalmente epistémico o instrumental , esto fue interpretado como óntico o realista.—Es decir, una explicación mecánica causal— y el principio se convirtió en una teoría , [81] refutando la gravitación newtoniana. [79] [82] Por el éxito predictivo en 1919 , la relatividad general aparentemente derrocó la teoría de Newton , una revolución en la ciencia [83] resistida por muchos pero cumplida alrededor de 1930. [84]

En 1925, Werner Heisenberg y Erwin Schrödinger formalizaron independientemente la mecánica cuántica (QM). [85] [86] A pesar de las explicaciones contradictorias, [86] [87] las dos teorías hicieron predicciones idénticas. [85] El modelo del electrón de Paul Dirac de 1928 se estableció en relatividad especial , lanzando QM a la primera teoría cuántica de campos (QFT), la electrodinámica cuántica (QED). [88] A partir de él, Dirac interpretó y predijo la antipartícula del electrón , pronto descubierta y denominadapositrón , [89] pero el QED falló en electrodinámica a altas energías. [90] En otros lugares y en otros lugares,se descubrieron una fuerza nuclear fuerte y una fuerza nuclear débil . [91]

En 1941, Richard Feynman introdujo el formalismo integral de trayectoria de QM , que si se lo interpreta como un modelo mecánico causal choca con el formalismo matricial de Heisenberg y con el formalismo ondulatorio de Schrödinger , [87] aunque los tres son empíricamente idénticos, compartiendo predicciones. [85] Luego, trabajando en QED, Feynman buscó modelar partículas sin campos y encontrar el vacío realmente vacío. [92] Como cada fuerza fundamental conocida [93] es aparentemente un efecto de un campo, Feynman falló. [92] Louis de Broglie 's dualidad waveparticlehabía vuelto insostenible el atomismo —partículas indivisibles en un vacío— y había resaltado la noción misma de partículas discontinuas como autocontradictorias. [94]

Freeman Dyson , Richard Feynman , Julian Schwinger y Sin-Itiro Tomonaga, reunidos en 1947, pronto introdujeron la renormalización , un procedimiento que convierte la QED en la teoría más precisa de predicción de la física, [90] [95] que incluye química , óptica y mecánica estadística . [63] [96] QED ganó así la aceptación general de los físicos. [97] Paul Dirac criticó su necesidad de renormalización por mostrar su antinaturalidad, [97] y pidió un éter. [98] En 1947, Willis Lambhabía encontrado un movimiento inesperado de los orbitales de los electrones , desplazado ya que el vacío no está realmente vacío. [99] Sin embargo, el vacío era pegadizo, aboliendo el éter conceptualmente, y la física procedía ostensiblemente sin él, [92] incluso suprimiéndolo. [98] Mientras tanto, "asqueados por las matemáticas desordenadas, la mayoría de los filósofos de la física tienden a descuidar la QED". [97]

Los físicos han temido incluso mencionar el éter , [100] rebautizado como vacío , [98] [101] que, como tal, es inexistente. [98] [102] Los filósofos de la ciencia en general creen comúnmente que el éter, más bien, es ficticio, [103] "relegado al basurero de la historia científica desde" 1905 trajo consigo la relatividad especial . [104] Einstein no se comprometió con la inexistencia del éter, [77] simplemente dijo que era superfluo. [79] Sin embargo, al abolir el movimiento newtoniano por la primacía electrodinámica, Einstein reforzó inadvertidamente el éter, [105]y para explicar el movimiento fue conducido de regreso al éter en la relatividad general . [106] [107] [108] Sin embargo, la resistencia a la teoría de la relatividad [109] se asoció con teorías anteriores del éter, cuya palabra y concepto se convirtieron en tabú. [110] Einstein explicó la compatibilidad de la relatividad especial con un éter, [107] pero el éter de Einstein también se opuso. [100] Los objetos se concibieron como anclados directamente en el espacio y el tiempo [111] mediante relaciones geométricas abstractas que carecen de un medio fantasmal o fluido. [100] [112]

En 1970, la QED junto con el campo nuclear débil se redujo a la teoría electrodébil (EWT), y el campo nuclear fuerte se modeló como cromodinámica cuántica (QCD). [90] Compuesto por el campo EWT, QCD y Higgs , este Modelo Estándar de física de partículas es una "teoría efectiva", [113] no verdaderamente fundamental. [114] [115] Como las partículas de QCD se consideran inexistentes en el mundo cotidiano, [92] QCD sugiere especialmente un éter, [116]rutinariamente encontrado por experimentos de física para existir y exhibir simetría relativista. [110] La confirmación de la partícula de Higgs , modelada como una condensación dentro del campo de Higgs , corrobora el éter, [100] [115] aunque la física no necesita indicar ni siquiera incluir el éter. [100] Organizar las regularidades de las observaciones, como en el modelo de la ley de cobertura, los físicos consideran superflua la búsqueda para descubrir el éter . [64]

En 1905, a partir de la relatividad especial , Einstein dedujo la equivalencia masa-energía , [117] las partículas son formas variantes de energía distribuida, [118] cómo las partículas que chocan a gran velocidad experimentan la transformación de esa energía en masa, produciendo partículas más pesadas, [119] aunque los físicos 'Hablar promueve la confusión. [120] Como "el lugar contemporáneo de la investigación metafísica ", las QFT plantean partículas que no existen individualmente, sino como modos de excitación de campos, [114] [121] las partículas y sus masas son estados de éter, [92]aparentemente unificando todos los fenómenos físicos como la realidad causal más fundamental, [101] [115] [116] como se había previsto hace mucho tiempo. [73] Sin embargo, un campo cuántico es una intrincada abstracción, un campo matemático , virtualmente inconcebible como propiedades físicas de un campo clásico . [121] Los aspectos más profundos de la naturaleza, aún desconocidos, podrían eludir cualquier posible teoría de campo. [114] [121]

Aunque popularmente se piensa que el descubrimiento de la causalidad es el objetivo de la ciencia, el programa de investigación newtoniano evitó su búsqueda , [14] incluso más newtoniano que Isaac Newton . [92] [122] A estas alturas, la mayoría de los físicos teóricos infieren que las cuatro interacciones fundamentales conocidas se reducirían a la teoría de supercuerdas , en la que los átomos y las moléculas, después de todo, son vibraciones de energía que tienen formas geométricas matemáticas. [63] Dadas las incertidumbres del realismo científico , [18] algunos concluyen que el concepto de causalidadaumenta la comprensibilidad de la explicación científica y, por lo tanto, es ciencia popular clave , pero compromete la precisión de la explicación científica y se abandona a medida que madura la ciencia. [123] Incluso la epidemiología está madurando para prestar atención a las graves dificultades con las presunciones sobre la causalidad. [14] [57] [59] Cubrir el modelo de derecho es una de las contribuciones admiradas de Carl G Hempel a la filosofía de la ciencia . [124]

Ver también [ editar ]

Tipos de inferencia

  • Razonamiento deductivo
  • Razonamiento inductivo
  • Razonamiento abductivo

Temas relacionados

  • Explanandum y explanans
  • Modelo hipotético-deductivo
  • Modelos de investigación científica
  • Filosofía de la Ciencia
  • Método científico

Notas [ editar ]

  1. ^ a b Woodward, "Explicación científica" , §2 "El modelo DN", en SEP , 2011.
  2. ↑ a b James Fetzer, ch 3 "Las paradojas de la explicación hempeliana", en Fetzer, ed, Science, Explanation, and Rationality (Oxford UP, 2000), p 113 .
  3. ^ Montuschi, Objetos en ciencias sociales (Continuum, 2003), págs . 61-62 .
  4. ^ Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), ch 2 , subch "Modelo DN de explicación y modelo HD de desarrollo teórico", págs. 25-26.
  5. ↑ a b Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 2 , subch "Explicación axiomática de las teorías", págs. 27-29.
  6. ^ a b c d e f g h Suppe, "Epílogo — 1977", "Introducción", §1 "Canto del cisne para el positivismo", §1A "Explicación y reducción interteórica", págs. 619–24 , en Suppe, ed, Structure of Scientific Theories , 2ª ed. (U Illinois P, 1977).
  7. ^ a b c d e Kenneth F Schaffner, "Explicación y causalidad en las ciencias biomédicas" , pp 79-125, en Laudan, ed, Mind and Medicine (U California P, 1983), p 81 .
  8. ↑ a b G Montalenti, ch 2 "De Aristóteles a Demócrito vía Darwin" , en Ayala y Dobzhansky, eds, Estudios en la filosofía de la biología (U California P, 1974).
  9. En el siglo XVII, Descartes e Isaac Newton creían firmemente en Dios como diseñador de la naturaleza y, por lo tanto, creían firmemente en la intencionalidad natural, pero encontraron que la teleología estaba fuera de la investigación de la ciencia (Bolotin, Approach to Aristotle's Physics , págs. 31-33 ). . En 1650, formalizando el heliocentrismo y lanzando la filosofía mecánica , la física cartesiana derrocó al geocentrismo así como a la física aristotélica. En la década de 1660, Robert Boyle buscó sacar de la alquimia la química como una nueva disciplina. Newton buscó más especialmente las leyes de la naturaleza, simplemente las regularidades de los fenómenos, mediante las cualesLa física newtoniana , al reducir la ciencia celeste a la ciencia terrestre, expulsó de la física el vestigio de la metafísica aristotélica, desconectando así la física y la alquimia / química, que luego siguió su propio curso, dando lugar a la química alrededor de 1800.
  10. ↑ Los apodos de los principios atribuidos a Hume —la bifurcación de Hume , el problema de la inducción , la ley de Hume— no fueron creados por Hume sino por filósofos posteriores que los etiquetaron para facilitar la referencia.
  11. Por la bifurcación de Hume, las verdades de las matemáticas y la lógica como ciencias formales son universales a través de "relaciones de ideas" —simplemente verdades abstractas—, por lo tanto, cognoscibles sin experiencia . Por otro lado, las verdades reivindicados de las ciencias empíricas son contingentes sobre "hecho y existencia real", cognoscible únicamente en la experiencia . Por la bifurcación de Hume, las dos categorías nunca se cruzan. Cualquier tratado que no contenga ninguno puede contener sólo "sofismas e ilusiones". (Flew, Dictionary , "Hume's fork", p. 156 ).
  12. Sin estar al tanto de las necesidades o imposibilidades del mundo, sino por la fuerza del hábito o la naturaleza mental, los humanos experimentan una secuencia de eventos sensoriales, encuentran una aparente conjunción constante , hacen la generalización irrestricta de una inducción enumerativa y la justifican presumiendo la uniformidad de la naturaleza . Así, los humanos intentan justificar una inducción menor agregando una inducción mayor, tanto lógicamente inválida como no verificada por la experiencia —el problema de la inducción— cómo los humanos presumen irracionalmente el descubrimiento de la causalidad. (Chakraborti, Logic , p 381 ; Flew, Dictionary , "Hume", p 156 .
  13. ^ Para discusiones más discursivas sobre los tipos de causalidad —necesario, suficiente, necesario y suficiente, componente, componente suficiente, contrafactual— ver Rothman & Greenland, Parascandola & Weed, así como Kundi. A continuación se presenta una aclaración más directa:

    una causa necesaria es una condición causal requerida para que ocurra un evento. Una causa suficiente es una condición causal completa para producir un evento. Sin embargo, lo necesario no siempre es suficiente, ya que otros factores casuales, es decir, otras causas componentes—Podría ser necesario para producir el evento. Por el contrario, una causa suficiente no siempre es una causa necesaria, ya que diferentes causas suficientes también pueden producir el evento. Estrictamente hablando, una causa suficiente no puede ser un solo factor, ya que cualquier factor causal debe actuar casualmente a través de muchos otros factores. Y aunque puede existir una causa necesaria, los humanos no pueden verificarla, ya que los humanos no pueden verificar todos los posibles estados de cosas. (El lenguaje puede expresar la causalidad necesaria como una tautología comunicado -a cuyos términos arreglo y significados hacer que es lógicamente verdadera por mera definición -que, como una analítica declaración, no es informativo sobre el mundo real. Un enunciado que se refiere a las realidades del mundo y que depende de ellas es más bien un enunciado sintético .)

    La causalidad suficiente es, en realidad, una causalidad componente suficiente —un conjunto completo de causas componentes que interactúan dentro de una constelación causal— que, sin embargo, está más allá de la capacidad de los humanos para descubrir. Sin embargo, los humanos tienden intuitivamente a concebir la causalidad como necesaria y suficiente —un factor único tanto requerido como completo— como la única causa, lacausa. Uno puede verlo accionar un interruptor de luz. Sin embargo, la activación del interruptor no fue causa suficiente, sino que dependía de innumerables factores: bombilla intacta, cableado intacto, caja de circuitos, pago de facturas, empresa de servicios públicos, infraestructura del vecindario, ingeniería de tecnología de Thomas Edison y Nikola Tesla , explicación de la electricidad de James Clerk. Maxwell , aprovechamiento de la electricidad por Benjamin Franklin , refinación de metales, minería de metales, etc., mientras que, sea cual sea el recuento de eventos, la estructura mecánica causal de la naturaleza sigue siendo un misterio.

    De un humeanoDesde esta perspectiva, la supuesta incapacidad de la luz para encenderse sin que el interruptor se encienda no es una necesidad lógica ni un hallazgo empírico, ya que ninguna experiencia revela que el mundo sea o seguirá siendo universalmente uniforme en cuanto a los aspectos que parecen unir el interruptor como Evento necesario para que se encienda la luz. Si la luz se enciende sin encender el interruptor, la sorpresa afectará la mente de uno , pero la mente de uno no puede saber que el evento violó la naturaleza . Como una posibilidad mundana, una actividad dentro de la pared podría haber conectado los cables y haber completado el circuito sin que se girara el interruptor.

    Aunque aparentemente disfruta de los escándalos que siguieron a sus propias explicaciones,Hume era muy práctico y su escepticismo era bastante desigual (Flew p. 156). Aunque Hume rechazó el teísmo ortodoxo y trató de rechazar la metafísica , supuestamente Hume extendió el método newtoniano a la mente humana, que Hume, en una especie de movimiento anti-copernicano, colocó como el eje del conocimiento humano (Flew p. 154 ). Así, Hume situó su propia teoría del conocimiento a la par con la teoría del movimiento de Newton (Buckle págs. 70-71 , Redman págs. 182-83 , Schliesser § resumen ). Hume encontró que la inducción enumerativa era una costumbre inevitable requerida para vivir (Gattei págs. 28-29 ). Hume encontró conjunción constante para revelar un tipo de causalidad modesto: contrafactualcausalidad . Silencioso en cuanto al rol causal —ya sea la necesidad, la suficiencia, la fuerza del componente o el mecanismo—, la causalidad contrafactual es simplemente que la alteración de un factor previene o produce el evento de interés.
  14. ↑ a b c d e Kundi M (2006). "Causalidad e interpretación de la evidencia epidemiológica" . Perspectivas de salud ambiental . 114 (7): 969–974. doi : 10.1289 / ehp.8297 . PMC  1513293 . PMID  16835045 .
  15. ^ Hume señaló que los autores continúan de manera ubicua durante algún tiempo exponiendo hechos y luego de repente cambian a enunciar normas, supuestamente lo que debería ser, sin apenas explicación. Sin embargo, tales valores, como en la ética o la estética o filosofía política , no se encuentran más que cierto al afirmar hechos: es en sí misma no revelan deberían . La ley de Hume es el principio de que la brecha hecho / valor es infranqueable —que ningún enunciado de hechos puede jamás justificar las normas— aunque el propio Hume no lo afirmó. Más bien, algunos filósofos posteriores encontraron que Hume simplemente se detenía antes de enunciarlo, pero que lo había comunicado. De todos modos, Hume descubrió que los humanos adquirían moralidad a través de la experiencia alrefuerzo comunal . (Flew, Diccionario , "Ley de Hume", pág. 157 y "Falacia naturalista", págs. 240–41 ; Wootton, Pensamiento político moderno , pág . 306 ).
  16. Kant infirió que las constantes de la mente organizan el espacio que contiene la geometría euclidiana, como el espacio absoluto de Newton,mientras que los objetos interactúan temporalmente como se modela en la teoría del movimiento de Newton , cuya ley de gravitación universal es una verdad sintética a priori , es decir, contingente a la experiencia, de hecho. , pero conocido universalmente como verdadero sin experiencia universal. Así, las constantes innatas de la mente cruzan las tenazas del tenedor de Hume y establecen la gravitación universal de Newton como una verdad a priori .
  17. ^ a b Chakravartty, "Realismo científico" , §1.2 "Las tres dimensiones del compromiso realista", en SEP, 2013: "Semánticamente, el realismo está comprometido con una interpretación literal de las afirmaciones científicas sobre el mundo. En el lenguaje común, los realistas toman las afirmaciones teóricas al 'valor nominal'. Según el realismo, las afirmaciones sobre entidades científicas, procesos, propiedades y relaciones, ya sean observables o no observables, deben interpretarse literalmente como si tuvieran valores de verdad, ya sean verdaderos o falsos. Este compromiso semántico contrasta principalmente con los de las denominadas epistemologías instrumentalistas de la ciencia, que interpretan las descripciones de los inobservables simplemente como instrumentos para la predicción de lo observable. fenómenos, o para sistematizar informes de observación. Tradicionalmente,El instrumentalismo sostiene que las afirmaciones sobre cosas inobservables no tienen ningún significado literal (aunque el término se usa a menudo de manera más liberal en relación con algunas posiciones antirrealistas en la actualidad). Algunos antirrealistas sostienen que las afirmaciones que involucran no observables no deben interpretarse literalmente, sino como elípticas para las afirmaciones correspondientes sobre observables ".
  18. ↑ a b Los desafíos al realismo científico son capturados sucintamente por Bolotin, Approach to Aristotle's Physics (SUNY P, 1998), págs. 33-34 , comentando sobre la ciencia moderna, "Pero, por supuesto, no ha logrado abarcar todos los fenómenos, en al menos no todavía. Porque las leyes son idealizaciones matemáticas, idealizaciones, además, sin una base inmediata en la experiencia y sin conexión evidente con las causas últimas del mundo natural. Por ejemplo, la primera ley del movimiento de Newton(la ley de la inercia) nos obliga a imaginar un cuerpo que está siempre en reposo o que se mueve sin rumbo fijo en línea recta a una velocidad constante, aunque nunca veamos tal cuerpo, y aunque de acuerdo con su propia teoría de la gravitación universal , es imposible que pueda haber uno. Esta ley fundamental, entonces, que comienza con una afirmación sobre lo que sucedería en una situación que nunca existe, no tiene ninguna convicción excepto en la medida en que ayuda a predecir eventos observables. Por lo tanto, a pesar del asombroso éxito de las leyes de Newton en la predicción de las posiciones observadas de los planetas y otros cuerpos, Einstein e Infeld tienen razón al decir en The Evolution of Physics, que "bien podemos imaginar otro sistema, basado en diferentes supuestos, podría funcionar igual de bien". Einstein e Infeld continúan afirmando que "los conceptos físicos son creaciones libres de la mente humana y, por mucho que parezca, no están determinados únicamente por el mundo externo". Para ilustrar lo que quieren decir con esta afirmación, comparan al científico moderno con un hombre que intenta comprender el mecanismo de un reloj cerrado. Si es ingenioso, reconocen, este hombre "puede formarse una imagen de un mecanismo que sería responsable de todas las cosas que observa". Pero añaden que es posible que nunca esté seguro de que su imagen es la única que podría explicar sus observaciones.Nunca podrá comparar su imagen con el mecanismo real y ni siquiera puede imaginar la posibilidad o el significado de tal comparación ”. En otras palabras, la ciencia moderna no puede afirmar, y nunca podrá afirmar, que tiene la comprensión definitiva de ningún fenómeno natural ".
  19. ^ Mientras que un imperativo hipotético es práctico, simplemente lo que uno debe hacer si busca un resultado particular, el imperativo categórico es moralmente universal, lo que todos deben hacer siempre.
  20. ^ a b Bourdeau, "Auguste Comte", §§ "Resumen" e "Introducción" , en Zalta, ed, SEP , 2013.
  21. Comte, A General View of Positivism (Trübner, 1865), pp 49-50 , que incluye el siguiente pasaje: "Mientras los hombres persistan en intentar responder las preguntas insolubles que ocuparon la atención de la infancia de nuestra raza, con mucho El plan más racional es hacer lo que se hizo entonces, es decir, simplemente dar rienda suelta a la imaginación. Estas creencias espontáneas han ido cayendo gradualmente en desuso, no porque hayan sido refutadas, sino porque la humanidad se ha vuelto más iluminada en cuanto a sus quiere y el alcance de sus poderes, y ha dado gradualmente una dirección completamente nueva a sus esfuerzos especulativos ".
  22. ^ Flew, Diccionario (St Martin's, 1984), "Positivismo", p 283 .
  23. ^ a b c Woodward, "Explicación científica" , §1 "Antecedentes e introducción", en SEP , 2011.
  24. ↑ a b Friedman, Reconsiderando el positivismo lógico (Cambridge UP, 1999), p xii .
  25. Cualquier positivismo ubicado en el siglo XX es generalmente neo , aunque huboel positivismo de Ernst Mach cerca de 1900, y un enfoque positivista general de la ciencia, rastreable a latendencia inductivista de Bacon en 1620, el programa de investigación newtoniano en 1687 y Comptean. el positivismo en 1830, que continúa en un sentido vago pero usualmente desautorizado dentro de la cultura popular y algunas ciencias.
  26. ^ A los neopositivistas a veces se les llama "verificacionistas".
  27. ^
    • Chakravartty, "Realismo científico" , §4 "Antirrealismo: láminas para el realismo científico", §4.1 "Empirismo", en SEP , 2013: "Tradicionalmente, los instrumentistas mantienen que los términos para inobservables, por sí mismos, no tienen significado; interpretados literalmente, declaraciones que los involucran ni siquiera son candidatos a la verdad o la falsedad.Los defensores más influyentes del instrumentalismo fueron los empiristas lógicos (o positivistas lógicos), incluidos Carnap y Hempel , famosos asociados con el Círculo de Vienagrupo de filósofos y científicos, así como importantes contribuyentes en otros lugares. Con el fin de racionalizar el uso ubicuo de términos que de otro modo podrían tomarse como referencia a inobservables en el discurso científico, adoptaron una semántica no literal según la cual estos términos adquieren significado al asociarse con términos para observables (por ejemplo, ' electrón ' podría significar 'raya blanca en una cámara de niebla '), o con procedimientos de laboratorio demostrables (un punto de vista llamado ' operacionalismo '). Las dificultades insuperables con esta semántica llevaron en última instancia (en gran medida) a la desaparición del empirismo lógico y al crecimiento del realismo . El contraste aquí no está simplemente ensemántica y epistemología : varios empiristas lógicos también sostuvieron la visión neokantiana de que las cuestiones ontológicas `` externas '' a los marcos del conocimiento representados por las teorías también carecen de sentido (la elección de un marco se hace únicamente sobre bases pragmáticas ), rechazando así la dimensión metafísica del realismo (como en Carnap 1950) ".
    • Okasha, Filosofía de la ciencia (Oxford UP, 2002), p. 62: "Estrictamente, deberíamos distinguir dos tipos de antirrealismo. Según el primer tipo, hablar de entidades no observables no debe entenderse literalmente en absoluto. Por lo tanto, cuando un científico presenta una teoría sobre los electrones, por ejemplo, no deberíamos tomar él afirmaba la existencia de entidades llamadas 'electrones'. Más bien, su discurso sobre los electrones es metafórico. Esta forma de antirrealismo fue popular en la primera mitad del siglo XX, pero pocas personas la defienden hoy. por una doctrina en la filosofía del lenguaje, según la cual no es posible hacer afirmaciones significativas sobre cosas que en principio no pueden ser observadas, una doctrina que pocos filósofos contemporáneos aceptan. El segundo tipo de antirrealismo acepta que hablar de entidades no observables debe tomarse al pie de la letra:si una teoría dice que los electrones están cargados negativamente, es verdadera si los electrones existen y están cargados negativamente, pero falsa en caso contrario. Pero nunca sabremos cuál, dice el antirrealista. Por tanto, la actitud correcta hacia las afirmaciones que hacen los científicos sobre la realidad no observable es de agnosticismo total. Son verdaderas o falsas, pero somos incapaces de averiguar cuál. La mayor parte del antirrealismo moderno es de este segundo tipo ".La mayor parte del antirrealismo moderno es de este segundo tipo ".La mayor parte del antirrealismo moderno es de este segundo tipo ".
  28. ^ a b Woodward, "Explicación científica", en Zalta, ed, SEP , 2011, resumen .
  29. ^ Hempel, Carl G; Oppenheim, Paul (abril de 1948). "Estudios en la lógica de la explicación". Filosofía de la ciencia . 15 (2): 135-175. doi : 10.1086 / 286983 . JSTOR 185169 . 
  30. ^ a b c d Bechtel, Descubriendo los mecanismos celulares (Cambridge UP, 2006), especialmente pp 24-25 .
  31. ^ a b Woodward, "Explicación científica" , §2 "El modelo DN", §2.3 "Explicación estadística inductiva", en Zalta, ed, SEP , 2011.
  32. ^ von Wright, Explicación y comprensión (Cornell UP, 1971), p 11 .
  33. ^ a b Stuart Glennan, "Explanation", § "Modelo de explicación de la ley de cobertura", en Sarkar & Pfeifer, eds, Philosophy of Science (Routledge, 2006), p 276 .
  34. ^ Manfred Riedel, "Explicación causal e histórica", en Manninen y Tuomela, eds, Ensayos sobre explicación y comprensión (D Reidel, 1976), págs . 3-4 .
  35. Los principios fundamentales del neopositivismo fueron el criterio de verificabilidad de la significación cognitiva , la brecha analítico / sintética y la brecha observación / teoría. De 1950 a 1951, Carl Gustav Hempel renunció al criterio de verificabilidad. En 1951, Willard Van Orman Quine atacó la brecha analítico / sintética. En 1958, Norwood Russell Hanson desdibujó la brecha observacional / teórica. En 1959, Karl Raimund Popper atacó todo el verificacionismo —atacó, en realidad, cualquier tipo de positivismo— al afirmar el falsacionismo. En 1962, Thomas Samuel Kuhn derrocó el fundacionalismo , que se asumió erróneamente como un principio fundamental del neopositivismo.
  36. ^ Fetzer, "Carl Hempel" , §3 "Razonamiento científico", en SEP , 2013: "La necesidad de desmantelar el criterio de verificabilidad de la significación junto con la desaparición de la distinción observacional / teórica significó que el positivismo lógico ya no representaba una racionalidad defendible Se ha demostrado que al menos dos de sus principios definitorios carecen de mérito. Dado que la mayoría de los filósofos creían que Quine había demostrado que la distinción analítico / sintético también era insostenible, muchos llegaron a la conclusión de que la empresa había sido un fracaso total. Los beneficios de la crítica de Hempel, sin embargo, fue la producción de criterios más generales y flexibles de importancia cognitiva en Hempel (1965b),Aspectos de la explicación científica (1965d). Allí propuso que la significación cognitiva no podía captarse adecuadamente por medio de principios de verificación o falsificación, cuyos defectos eran paralelos, sino que requerían un enfoque mucho más sutil y matizado. Hempel sugirió múltiples criterios para evaluar la importancia cognitivade diferentes sistemas teóricos, donde la significación no es categórica sino más bien una cuestión de grado: 'Los sistemas significativos van desde aquellos cuyo vocabulario extralógico completo consiste en términos de observación, pasando por teorías cuya formulación se basa en gran medida en constructos teóricos, hasta sistemas que apenas tienen relación con posibles hallazgos empíricos '(Hempel 1965b: 117). Los criterios que Hempel ofreció para evaluar los 'grados de significación' de los sistemas teóricos (como conjunciones de hipótesis, definiciones y afirmaciones auxiliares) fueron (a) la claridad y precisión con que se formulan, incluidas las conexiones explícitas con el lenguaje observacional; (b) el poder sistemático —explicativo y predictivo— de tal sistema, en relación con los fenómenos observables;(c) la simplicidad formal de los sistemas con los que se alcanza un cierto grado de poder sistemático; y (d) la medida en que esos sistemas han sido confirmados por evidencia experimental (Hempel 1965b). La elegancia del estudio de Hempel puso fin a cualquier aspiración persistente de criterios simples de 'importancia cognitiva' y señaló la desaparición del positivismo lógico como movimiento filosófico ".
  37. ^ Popper, "Contra las grandes palabras", En busca de un mundo mejor (Routledge, 1996), págs . 89-90 .
  38. ^ Hacohen, Karl Popper: The Formative Years (Cambridge UP, 2000), págs . 212-13 .
  39. Logik der Forschung , publicado en Austria en 1934, fue traducido por Popper del alemán al inglés, The Logic of Scientific Discovery , y llegó al mundo de habla inglesa en 1959.
  40. ^ a b c d Reutlinger, Schurz & Hüttemann, "Ceteris paribus" , § 1.1 "Introducción sistemática", en Zalta, ed, SEP , 2011.
  41. Como estudio científico de las células, la citología surgió en el siglo XIX, pero su tecnología y métodos fueron insuficientes para visualizar y establecer claramente la existencia de cualquier orgánulo celularmás allá del núcleo .
  42. El primer experimento de bioquímica famoso fue el de Edward Buchner en 1897 (Morange, A History , p 11 ). Pronto surgió la disciplina de la bioquímica, que inicialmente investigaba coloides en sistemas biológicos, una "biocoloidología" (Morange, p. 12 ; Bechtel, Discovering , p. 94 ). Esto dio lugar a la teoría macromolecular, el término macromolécula introducido por el químico alemán Hermann Staudinger en 1922 (Morange p 12 ).
  43. ^ La biología celular surgió principalmente en el Instituto Rockefeller a través de nuevas tecnologías ( microscopio electrónico y ultracentrífuga ) y nuevas técnicas ( fraccionamiento celular y avances en tinción y fijación).
  44. ^ James Fetzer, capítulo 3 "Las paradojas de la explicación hempeliana", en Fetzer J, ed. Ciencia, explicación y racionalidad (Oxford UP, 2000), págs . 121-122 .
  45. ^ Fetzer, ch 3 en Fetzer, ed, Science, Explanation, and Rationality (Oxford UP, 2000), p 129 .
  46. ^ a b Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), cap. 1 , subch. "Áreas de la filosofía que se relacionan con la filosofía de la ciencia", § "Metafísica", págs. 8-9, § "Epistemología", pág. 11.
  47. ^ H Atmanspacher, RC Bishop & A Amann, "Irreversibilidad extrínseca e intrínseca en leyes dinámicas probabilísticas", en Khrennikov, ed, Proceedings (World Scientific, 2001), págs . 51-52 .
  48. Fetzer, ch 3, en Fetzer, ed, Science, Explanation, and Rationality (Oxford UP, 2000), p 118 , plantea algunas formas posibles en que las leyes naturales, así llamadas, cuando las epistémicas pueden fallar como ónticas : "La concepción subyacente es el de poner orden en nuestro conocimientodel universo. Sin embargo, hay al menos tres razones por las que incluso el conocimiento completo de cada regularidad empírica que se obtiene durante la historia del mundo podría no proporcionar una base inferencial adecuada para el descubrimiento de las leyes del mundo. En primer lugar, es posible que algunas leyes permanezcan sin autenticación y, por lo tanto, no se muestren con regularidad. En segundo lugar, algunas regularidades pueden ser accidentales y, por lo tanto, no muestran ninguna ley de la naturaleza. Y, en tercer lugar, en el caso de las leyes probabilísticas, algunas frecuencias podrían desviarse de sus probabilidades nómicas generadoras 'por casualidad' y, por lo tanto, mostrar leyes naturales de formas no representativas o sesgadas ".
  49. Esta reducción de la teoría ocurre si, y aparentemente solo si, el Sol y un planeta se modelan como un sistema de dos cuerpos, excluyendo todos los demás planetas (Torretti, Philosophy of Physics , págs. 60-62 ).
  50. ^ Spohn, Leyes de las creencias (Oxford UP, 2012), p 305 .
  51. Mientras que la física fundamental ha buscado leyes de regularidad universal , las ciencias especiales normalmente incluyenleyes ceteris paribus , que son predeciblemente precisas a alta probabilidad en "condiciones normales" o con "todo lo demás igual", pero tienen excepciones [Reutlinger et al § 1.1]. Las leyes de la química parecen no tener excepciones en sus dominios, pero en principio se redujeron a la física fundamental [Feynman p 5 , Schwarz Fig. 1 , y también lo son las ciencias especiales.
  52. ^ Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), cap. 5, subch. "Introducción: Relacionar disciplinas relacionando teorías" págs. 71-72.
  53. ^ a b Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), cap. 5, subcap. "Modelo de reducción de teoría y programa de unidad de ciencia " págs. 72-76.
  54. ↑ a b Bem & de Jong, Theoretical Issues (Sage, 2006), págs . 45–47 .
  55. ^ a b c O'Shaughnessy, Explicación del comportamiento del comprador (Oxford UP, 1992), págs . 17-19 .
  56. ↑ a b Spohn, Leyes de las creencias (Oxford UP, 2012), p 306 .
  57. ↑ a b Karhausen, LR (2000). "Causalidad: el grial esquivo de la epidemiología". Medicina, Salud y Filosofía . 3 (1): 59–67. doi : 10.1023 / A: 1009970730507 . PMID 11080970 . 
  58. ^ Bechtel, Filosofía de la ciencia (Lawrence Erlbaum, 1988), ch 3 , subch "Repudio del modelo de explicación DN", págs. 38-39.
  59. ^ a b c Rothman, KJ; Groenlandia, S. (2005). "Causalidad e inferencia causal en epidemiología". Revista estadounidense de salud pública . 95 : S144 – S150. doi : 10.2105 / AJPH.2004.059204 . hdl : 10.2105 / AJPH.2004.059204 . PMID 16030331 . 
  60. ^ Boffetta, " Causalidad en presencia de asociaciones débiles" , Crit Rev Food Sci Nutr , 2010; 50 (S1): 13–16.
  61. ^ No comprometerse con el papel causal particular—como la necesidad, la suficiencia, la fuerza del componente o el mecanismo— causalidad contrafactual es simplemente que la alteración de un factor de su estado fáctico previene o produce de cualquier manera el evento de interés.
  62. ^ En epidemiología, la causalidad contrafactual no es determinista , sino probabilística Parascandola; Hierba (2001). "Causalidad en epidemiología" . J Epidemiol Community Health . 55 (12): 905-12. doi : 10.1136 / jech.55.12.905 . PMC 1731812 . PMID 11707485 .  
  63. ^ a b c d Schwarz, "Desarrollos recientes en la teoría de cuerdas" , Proc Natl Acad Sci USA , 1998; 95 : 2750–7, especialmente la figura 1 .
  64. ↑ a b Ben-Menahem, Convencionalismo (Cambridge UP, 2006), p 71 .
  65. ↑ Los casos de falsedad limitaron la ley de Boyle a casos especiales, por lo tanto, la ley de los gases ideales .
  66. ^ a b c d Newburgh et al , "Einstein, Perrin y la realidad de los átomos" Archivado el 3 de agosto de 2017 en la Wayback Machine , Am J Phys , 2006, p 478.
  67. Para una breve revisión de la opinión de Boltmann, consulte el capítulo 3 "Philipp Frank", § 1 "Entrevista de TS Kuhn ", en Blackmore et al , eds, Ernst Mach's Vienna 1895-1930 (Kluwer, 2001), p 63 , como Frank fue alumno de Boltzmann poco después de la jubilación de Mach. Consulte las "Notas", págs. 79–80 , n. ° 12 para ver las opiniones de Mach y Ostwald, n. ° 13 para ver las opiniones de los físicos contemporáneos en general, y n. ° 14 para ver las opiniones de Einstein . El más relevante aquí es el n. ° 12: "Mach parece haber tenido varias opiniones estrechamente relacionadas con respecto al atomismo . Primero, a menudo pensaba que la teoría podría ser útil en física siempre que uno no creyera en la realidadde átomos. En segundo lugar, creía que era difícil aplicar la teoría atómica tanto a la psicología como a la física. En tercer lugar, su propia teoría de los elementos se denomina a menudo una "teoría atomista" en psicología, en contraste con la teoría de la Gestalt y la teoría del continuo de la experiencia. En cuarto lugar, cuando criticaba la realidad de los átomos, normalmente se refería al sentido griego de `` sustancia indivisible '' y pensaba que Boltzmann estaba siendo evasivo al defender átomos divisibles o `` corpúsculos '' como los que se convertirían en normales después de JJ Thomson y la distinción entre electrones y núcleos.. En quinto lugar, normalmente llamaba a los átomos físicos 'cosas del pensamiento' y se alegró mucho cuando Ostwald pareció refutar la realidad de los átomos en 1905. Y sexto, después de que Ostwald regresó al atomismo en 1908, Mach continuó defendiendo la alternativa 'enérgica' de Ostwald al atomismo. ".
  68. ↑ Los físicos habían explicado la energía del campo electromagnético como energía mecánica , como el impacto corporal de una ola oceánica, no como gotas de agua que se bañan individualmente (Grandy, Everyday Quantum Reality , págs. 22-23 ). En la década de 1890, el problema de la radiación del cuerpo negro era paradójico hasta que Max Planck teorizó el cuanto que exhibía la constante de Planck, una unidad mínima de energía. Los cuantos eran misteriosos, no vistos como partículas , sinosimplemente como unidades de energía . Sin embargo, otra paradoja fue el efecto fotoeléctrico .

    Como una longitud de onda más corta produce más ondas por unidad de distancia, una longitud de onda más baja es una frecuencia de onda más alta. Dentro de la porción visible del espectro electromagnético , la frecuencia establece el color. La intensidad de la luz, sin embargo, es la amplitud de la onda como la altura de la onda. En una explicación estrictamente de onda, una mayor intensidad (mayor amplitud de onda) aumenta la energía mecánica entregada, es decir, el impacto de la onda, y por lo tanto produce un mayor efecto físico. Y, sin embargo, en el efecto fotoeléctrico, se encontró que solo un cierto color y más, una cierta frecuencia y más alta, derribaba electrones de una superficie metálica. Por debajo de esa frecuencia o color, el aumento de la intensidad de la luz aún no eliminó electrones.

    Einstein modeló los cuantos de Planck como cada una de las partículas cuya energía individual era la constante de Planck multiplicada por la frecuencia de la onda de luz: a solo una cierta frecuencia y más allá, cada partícula sería lo suficientemente enérgica como para expulsar un electrón de su orbital. Aunque elevar la intensidad de la luz produciría más energía, más partículas totales, cada partícula individual aún carecería de energía suficiente para desalojar un electrón. El modelo de Einstein, mucho más complejo, utilizó la teoría de la probabilidad para explicar las tasas de expulsión de elecciones como tasas de colisiones con partículas electromagnéticas. Este resurgimiento de la hipótesis de las partículas de luz —generalmente atribuido a Newton— fue ampliamente cuestionado. En 1920, sin embargo, la explicación ayudó a resolver problemas en la teoría atómica., y así surgió la mecánica cuántica . En 1926, Gilbert N Lewis denominó fotones a las partículas . QED los modela como partículas mensajeras o portadoras de fuerza del campo electromagnético , emitidas y absorbidas por electrones y por otras partículas que experimentan transiciones.
  69. ^ Wolfson, Simply Einstein (WW Norton & Co, 2003), p 67 .
  70. La teoría gravitacional de Newton en 1687 había postulado el espacio absoluto y el tiempo absoluto . Para encajar joven 's onda transversal teoría de la luz en 1804, el espacio era teóricamente llena de Fresnel ' s éter luminoso en 1814. Por Maxwell teoría del campo electromagnético 's de 1865, la luz siempre mantiene una velocidad constante, lo que, sin embargo, debe ser relativa a algo, aparentemente al éter. Sin embargo, si la velocidad de la luz es constante en relación con el éter, entonces el movimiento de un cuerpo a través del éter sería relativo, por lo tanto, variaría en relación con la velocidad de la luz. Incluso la enorme velocidad de la Tierra, multiplicada por el ingenio experimental con un interferómetro porMichelson & Morley en 1887 , no revelaron una aparente deriva del éter; la velocidad de la luz aparentemente constante, absoluta. Por lo tanto, tanto la teoría gravitacional de Newton como la teoría electromagnética de Maxwell tenían cada una su propio principio de relatividad, pero ambas eran incompatibles. Para un breve resumen, véase Wilczek, Lightness of Being (Basic Books, 2008), págs . 78–80 .
  71. ^ Cordero, Filosofía de la ciencia EPSA (Springer, 2012), págs . 26-28 .
  72. ^ Hooper, Aether and Gravitation (Chapman y Hall, 1903), págs . 122–23 .
  73. ↑ a b Lodge (1909). "El éter del espacio" . Sci Am Suppl . 67 (1734supp): 202–03. doi : 10.1038 / scientificamerican03271909-202supp .
  74. Incluso Mach, que rechazó todas las hipótesis más allá de la experiencia sensorial directa, supuso un éter, necesario para que el movimiento no violara elprincipio fundamental de la filosofía mecánica , No hay interacción instantánea a distancia (Einstein, "Ether", Sidelights (Methuen, 1922) , págs. 15-18 ).
  75. ^ Rowlands, Oliver Lodge (Liverpool UP, 1990), págs. 159-60 : "Losexperimentos con éter de Lodge se han convertido en parte del trasfondo histórico que condujo al establecimiento de la relatividad especial y su importancia suele verse en este contexto. Relatividad especial , se afirma, eliminó tanto el éter como el concepto de movimiento absoluto de la física. Se involucraron dos experimentos: el de Michelson y Morley, que mostró que los cuerpos no se mueven con respecto a un éter estacionario, y el de Lodge, que mostró que los cuerpos en movimiento no arrastran el éter con ellos. Con el énfasis en la relatividad, el Michelson-MorleyEl experimento ha llegado a ser visto como el más significativo de los dos, y el experimento de Lodge se convierte en algo así como un detalle, una cuestión de eliminar la posibilidad final, y menos probable, de un medio no estacionario, viscoso y omnipresente. Se podría argumentar que casi todo lo contrario pudo haber sido el caso. El experimento de Michelson-Morley no probó que no hubiera movimiento absoluto y no probó que no hubiera éter estacionario. Sus resultados, y la contracción de FitzGerald-Lorentz, podrían haberse predicho en Heaviside , o incluso en Maxwell.teoría, incluso si no se hubiera realizado ningún experimento. La importancia del experimento, aunque considerable, es puramente histórica y de ninguna manera fáctica. El experimento de Lodge, por otro lado, mostró que, si existía un éter, entonces sus propiedades debían ser muy diferentes de las imaginadas por los teóricos mecanicistas. El éter que siempre creyó que existía tuvo que adquirir propiedades completamente nuevas como resultado de este trabajo ".
  76. Principalmente Hendrik Lorentz y Henri Poincaré modificaron la teoría electrodinámica y, más o menos, desarrollaron la teoría especial de la relatividad antes que Einstein (Ohanian, Einstein's Mistakes , págs. 281–85 ). Sin embargo, Einstein, pensador libre, dio el siguiente paso y lo expresó, más elegantemente, sin éter (Torretti, Philosophy of Physics , p 180 ).
  77. ↑ a b Tavel, Física contemporánea (Rutgers UP, 2001), págs [1] , 66 .
  78. Introducida poco después de que Einstein explicara el movimiento browniano, la relatividad especial solo se cumple en casos demovimiento inercial , es decir, movimiento no acelerado. La inercia es el estado de un cuerpo que no experimenta aceleración, ya sea por cambio de velocidad, ya sea acelerando o desacelerando, o por cambio de dirección, y por lo tanto exhibe velocidad constante, que es velocidad más dirección.
  79. ^ a b c Cordero, Filosofía de la ciencia EPSA (Springer, 2012), págs . 29-30 .
  80. Para explicar la velocidad absoluta de la luz sin éter, Einstein modeló que un cuerpo en movimiento en un campo electromagnético experimenta contracción de longitud y dilatación en el tiempo , que Lorentz y Poincaré ya habían modelado como contracción de Lorentz-FitzGerald y transformación de Lorentz, pero hipotetizandoestados dinámicos del éter , mientras que la relatividad especial de Einstein era simplemente cinemática , es decir, no planteaba una explicación mecánica causal, simplemente describía posiciones, mostrando así cómo alinear los dispositivos de medición, a saber, relojes y varillas. (Ohanian, Einstein's Mistakes , págs. 281–85).
  81. ^ Ohanian, Errores de Einstein (WW Norton, 2008), págs . 281–85 .
  82. La teoría de Newton requería espacio y tiempo absolutos .
  83. ^ Buchen, "29 de mayo de 1919" , Wired , 2009.
    Moyer, "Revolution" , en Studies in the Natural Sciences (Springer, 1979), p 55.
    Melia, Black Hole (Princeton UP, 2003), págs. 83–87 .
  84. ^ Crelinsten, Jurado de Einstein (Princeton UP, 2006), p 28 .
  85. ^ a b c De 1925 a 1926, independientemente pero casi simultáneamente, Werner Heisenberg y Erwin Schrödinger desarrollaron la mecánica cuántica (Zee in Feynman, QED , p xiv ). Schrödinger introdujo la mecánica de ondas , cuya función de onda se discierne mediante una ecuación diferencial parcial , ahora denominada ecuación de Schrödinger (p xiv). Heisenberg, quien también declaró el principio de incertidumbre , junto con Max Born y Pascual Jordan introdujeron la mecánica matricial , que hablaba de manera bastante confusaoperadores que actúan sobre estados cuánticos (p xiv). Si se toman como causal y mecánicamente explicativos , los dos formalismos discrepan vívidamente y, sin embargo, son imperceptibles empíricamente , es decir, cuando no se usan para la interpretación y se toman simplemente como formalismo ( p xv ).

    En 1941, en una fiesta en una taberna en Princeton, Nueva Jersey , el físico visitante Herbert Jehle mencionó a Richard Feynman un formalismo diferente sugerido por Paul Dirac , quien desarrolló la notación bra-ket , en 1932 (p xv). Al día siguiente, Feynman completó el enfoque sugerido por Dirac como suma de historiaso suma sobre caminos o integrales de camino (p xv). Feynman bromearía diciendo que este enfoque, que suma todos los caminos posibles que una partícula podría tomar, como si la partícula realmente los tomara todos, anulándose a sí mismos excepto por un camino, el más eficiente de la partícula, elimina el principio de incertidumbre ( p xvi ). Todos empíricamente equivalentes, el formalismo ondulatorio de Schrödinger, el formalismo matricial de Heisenberg y el formalismo integral de trayectoria de Feynman incorporan el principio incierto (p xvi).

    No existe una barrera particular para los formalismos adicionales, que podrían simplemente no haber sido desarrollados y difundidos ampliamente ( p xvii). En una disciplina física particular, sin embargo, y en un problema particular, uno de los tres formalismos puede ser más fácil de operar que otros ( págs. Xvi-xvii ). En la década de 1960, el formalismo de trayectoria integral prácticamente desapareció del uso, mientras que el formalismo matricial era el "canónico" ( p. Xvii ). En la década de 1970, el formalismo de trayectoria integral hizo un "regreso rugiente", se convirtió en el medio predominante para hacer predicciones a partir de QFT e impulsó a Feynman a un aura de mística ( pág. Xviii ).
  86. ↑ a b Cushing, Quantum Mechanics (U Chicago P, 1994), págs . 113-18 .
  87. ^ a b La mecánica ondulatoria de Schrödinger planteó la carga de un electrón esparcida a través del espacio como una forma de onda , luego reinterpretada como el electrón que se manifiesta a través del espacio de manera probabilística pero definitivamente en ninguna parte, mientras que finalmente construye esa forma de onda determinista. La mecánica matricial de Heisenberg hablaba confusamente de operadores que actúan sobre estados cuánticos . Richard Feynman introdujo el formalismo integral de trayectoria de QM, interpretable como una partícula que viaja por todas las trayectorias imaginables, anulándose a sí misma, dejando solo una, la más eficiente, predictivamente idéntica a la de Heisenberg.formalismo matricial y con el formalismo ondulatorio de Schrödinger .
  88. ^ Torretti, Filosofía de la física (Cambridge UP, 1999), págs . 393–95 .
  89. ^ Torretti, Filosofía de la física (Cambridge UP, 1999), p 394 .
  90. ↑ a b c Torretti, Filosofía de la física (Cambridge UP, 1999), p 395 .
  91. ↑ El reconocimiento de la fuerza fuerte permitió al Proyecto Manhattan diseñar a Little Boy y Fat Man , lanzados sobre Japón, mientras que los efectos de la fuerza débil se observaron en sus secuelas ( lluvia radiactiva) de diversas consecuencias para la salud.
  92. ^ a b c d e f Wilczek, "La persistencia del éter" , Phys Today , 1999; 52 : 11,13, pág.13.
  93. ^ Las cuatro interacciones fundamentales conocidasson gravitacional, electromagnética, nuclear débil y nuclear fuerte.
  94. ^ Grandy, Realidad cuántica cotidiana (Indiana UP, 2010), págs . 24-25 .
  95. ^ Schweber, QED y los hombres que lo lograron (Princeton UP, 1994).
  96. ^ Feynman, QED (Princeton UP, 2006), p 5 .
  97. ↑ a b c Torretti, Filosofía de la física , (Cambridge UP, 1999), págs . 395–96 .
  98. ↑ a b c d Cushing, Quantum Mechanics (U Chicago P, 1994), págs . 158–59 .
  99. ^ Cerrar, "Mucho ruido y pocas nueces" , Nova , PBS / WGBH, 2012: "Esta nueva visión de la mecánica cuántica de la nada comenzó a surgir en 1947, cuando Willis Lambespectro medido de hidrógeno. El electrón en un átomo de hidrógeno no puede moverse donde le plazca, sino que está restringido a trayectorias específicas. Esto es análogo a subir una escalera: no puede terminar en alturas arbitrarias sobre el suelo, solo aquellas donde hay peldaños para pararse. La mecánica cuántica explica el espaciamiento de los peldaños en la escalera atómica y predice las frecuencias de radiación que se emiten o absorben cuando un electrón cambia de uno a otro. De acuerdo con el estado de la técnica en 1947, que asumió que el átomo de hidrógeno consistía solo en un electrón, un protón y un campo eléctrico, dos de estos peldaños tienen energía idéntica. Sin embargo, las mediciones de Lamb mostraron que estos dos peldaños difieren en energía en aproximadamente una parte en un millón. ¿Qué podría estar causando esta pequeña pero significativa diferencia? "Cuando los físicos trazaron su simple imagen del átomo, se habían olvidado de algo: nada. Lamb se había convertido en la primera persona en observar experimentalmente que el vacío no está vacío, sino que está hirviendo con electrones efímeros y sus análogos de antimateria, los positrones. Estos electrones y positrones desaparecen casi instantáneamente, pero en su breve momento de existencia alteran ligeramente la forma del campo electromagnético del átomo. Esta interacción momentánea con el electrón dentro del átomo de hidrógeno patea uno de los peldaños de la escalera un poco más alto de lo que sería de otra manera.positrones. Estos electrones y positrones desaparecen casi instantáneamente, pero en su breve momento de existencia alteran ligeramente la forma del campo electromagnético del átomo. Esta interacción momentánea con el electrón dentro del átomo de hidrógeno patea uno de los peldaños de la escalera un poco más alto de lo que sería de otra manera.positrones. Estos electrones y positrones desaparecen casi instantáneamente, pero en su breve momento de existencia alteran ligeramente la forma del campo electromagnético del átomo. Esta interacción momentánea con el electrón dentro del átomo de hidrógeno patea uno de los peldaños de la escalera un poco más alto de lo que sería de otra manera.
    "Todo esto es posible porque, en la mecánica cuántica, la energía no se conserva en escalas de tiempo muy cortas o en distancias muy cortas. Más extraño aún, cuanto más precisamente intentas mirar algo, o nada, más dramáticas se vuelven estas fluctuaciones de energía. . Combine eso con E = mc 2 de Einstein , lo que implica que la energía puede congelarse en forma material, y tiene una receta para partículas que burbujean y desaparecen incluso en el vacío. Este efecto le permitió a Lamb medir literalmente algo de la nada " .
  100. ^ a b c d e
    • Vongehr "Descubrimiento de Higgs rehabilitando el despreciado Einstein Aether" , Science 2.0 , 2011.
    • Vongehr, Sascha (2009). "Apoyando el espacio-tiempo relacional abstracto como fundamental sin doctrinismo contra la emergencia". arXiv : 0912.3069 [ physics.hist-ph ].
  101. ^ a b Riesselmann "Concepto de éter para explicar las fuerzas" , Inquiring Minds , Fermilab , 2008.
  102. ^ Cerrar, "Mucho ruido y pocas nueces" , Nova , PBS / WGBH, 2012.
  103. ^ Sobre "ejemplos históricos de teorías empíricamente exitosas que luego resultan ser falsas", Okasha, Philosophy of Science (Oxford UP, 2002), p 65 , concluye: "Una que permanece es la teoría ondulatoria de la luz, presentada por primera vez por Christian Huygensen 1690. Según esta teoría, la luz consiste en vibraciones ondulantes en un medio invisible llamado éter, que se suponía que penetraba en todo el universo. (El rival de la teoría ondulatoria era la teoría de partículas de la luz, favorecida por Newton, que sostenía que la luz consiste en partículas muy pequeñas emitidas por la fuente de luz.) La teoría ondulatoria no fue ampliamente aceptada hasta que el físico francés Auguste Fresnel formuló una teoría matemática. versión de la teoría en 1815, y la usó para predecir algunos fenómenos ópticos nuevos y sorprendentes. Los experimentos ópticos confirmaron las predicciones de Fresnel, convenciendo a muchos científicos del siglo XIX de que la teoría ondulatoria de la luz debe ser cierta. Pero la física moderna nos dice que la teoría no es cierta: no existe el éter, por lo que la luz no consiste en vibraciones en él. Otra vez,tenemos un ejemplo de una teoría falsa pero empíricamente exitosa ".
  104. ^ Pigliucci, Respuestas para Aristóteles (Libros básicos, 2012), p 119: "Pero el antirrealista señalará rápidamente que muchas veces en el pasado los científicos han postulado la existencia de inobservables que aparentemente eran necesarios para explicar un fenómeno, solo para descubrir más tarde que tales inobservables no existían de hecho. Un caso clásico es el éter, una sustancia que supuestamente los físicos del siglo XIX impregnaba todo el espacio y hacía posible que la radiación electromagnética (como la luz) se propagara. Fue la teoría especial de la relatividad de Einstein, propuesta en 1905, la que eliminó la necesidad de éter, y el concepto ha sido relegado al basurero de la historia científica desde entonces.Los antirrealistas disfrutarán señalando que la física moderna presenta una serie de entidades igualmente inobservables, desde la 'espuma' de la mecánica cuántica hastaenergía oscura , y que la generación actual de científicos parece tan confiada en los dos últimos como sus homólogos del siglo XIX estaban sobre el éter ".
  105. ^ Wilczek, levedad del ser (Basic Books, 2008), págs . 78–80 .
  106. ^ Laughlin, A Different Universe (Basic Books, 2005), págs . 120-21 .
  107. ↑ a b Einstein, "Ether", Sidelights (Methuen, 1922), págs . 14-18 .
  108. ^ Lorentz éter estaba en reposo absoluto de acción en la materia, pero no actuado sobre por materia. Reemplazándolo y asemejándose aléter de Ernst Mach , el éter de Einstein es elpropio espacio - tiempo , que es el campo gravitacional, que recibe el movimiento de un cuerpo y lo transmite a otros cuerpos mientras se propaga a la velocidad de la luz, ondeando . Sin embargo, un éter de Einstein no observable no es un marco de referencia privilegiado;no se le debe asignar un estado de movimiento absoluto o reposo absoluto.
  109. ^ La teoría de la relatividad comprende tanto la relatividad especial (SR) como la relatividad general (GR). Sosteniendo los marcos de referencia inerciales, SR es como un caso limitado de GR, que es válido para todos los marcos de referencia, tanto inerciales como acelerados. En GR, todo movimiento (inercial, acelerado o gravitacional) es consecuencia de la geometría del espacio 3D estirado sobre el eje del tiempo 1D. Por GR, ninguna fuerza distingue la aceleración de la inercia. El movimiento inercial es consecuencia simplemente de la geometría uniforme del espacio-tiempo, la aceleración es consecuencia simplemente de lageometría no uniforme del espacio-tiempo, y la gravitación es simplemente aceleración.
  110. ↑ a b Laughlin, A Different Universe , (Basic Books, 2005), págs. 120-21: "La palabra 'éter' tiene connotaciones extremadamente negativas en la física teórica debido a su asociación pasada con la oposición a la relatividad. Esto es lamentable porque, despojado de estas connotaciones, captura bastante bien la forma en que la mayoría de los físicos realmente piensan sobre el vacío ... . La relatividad en realidad no dice nada acerca de la existencia o inexistencia de la materia que impregna el universo, solo que dicha materia debe tener simetría relativista. Resulta que tal materia existe. Aproximadamente en el momento en que la relatividad se estaba volviendo aceptada, los estudios de radiactividad comenzaron a mostrar que la El vacío vacío del espacio tenía una estructura espectroscópica similar a la de los sólidos y fluidos cuánticos ordinarios.Estudios posteriores con aceleradores de partículas grandes ahora nos han llevado a comprender que el espacio se parece más a un trozo de vidrio de ventana que al vacío newtoniano ideal. Está lleno de "cosas" que normalmente son transparentes pero que se pueden hacer visibles golpeándolas con la fuerza suficiente para romper una parte. El concepto moderno del vacío del espacio, confirmado todos los días por la experimentación, es un éter relativista. Pero no lo llamamos así porque sea tabú ".
  111. ^ En el espacio-tiempo 4D de Einstein, el espacio 3D se estira sobre el eje 1D del flujo del tiempo, que se ralentiza mientras que el espacio se contrae adicionalmenteen la vecindad de la masa o la energía.
  112. ^ Torretti, Filosofía de la física (Cambridge UP, 1999), p 180 .
  113. ^ Como teoría de campo efectiva, una vez ajustado a dominios particulares, el modelo estándar es predictivamente preciso hasta una cierta escala de energía vasta que es un límite, con lo cual surgirían fenómenos más fundamentales, que regulan los fenómenos modelados de la teoría efectiva. (Burgess y Moore, Standard Model , pág. Xi ; Wells, Effective Theories , págs. 55–56 ).
  114. ↑ a b c Torretti, Filosofía de la física (Cambridge UP, 1999), p 396 .
  115. ↑ a b c Jegerlehner, F. (2014). "El modelo estándar como una teoría eficaz de baja energía: ¿Qué está desencadenando el mecanismo de Higgs?". Acta Physica Polonica B . 45 (6): 1167. arXiv : 1304.7813 . Código bibliográfico : 2014AcPPB..45.1167J . doi : 10.5506 / APhysPolB.45.1167 . Entendemos el SM como una emergencia efectiva de baja energía de algún sistema físico desconocido, podemos llamarlo 'éter', que se encuentra en la escala de Planck con la longitud de Planck.como una escala de longitud "microscópica". Tenga en cuenta que el límite, aunque muy grande, en cualquier caso es finito.
  116. ^ a b Wilczek, Lightness of Being (Basic Books, 2008), cap 8 "La cuadrícula (persistencia del éter)", p 73 : "Para la filosofía natural, la lección más importante que aprendemos de QCD es que lo que percibimos como vacío El espacio es en realidad un medio poderoso cuya actividad moldea el mundo. Otros desarrollos en la física moderna refuerzan y enriquecen esa lección. Más adelante, a medida que exploramos las fronteras actuales, veremos cómo el concepto de espacio 'vacío' como un elemento rico y dinámico medium empodera nuestro mejor pensamiento sobre cómo lograr la unificación de fuerzas ".
  117. ^ La equivalencia masa-energía se formaliza en la ecuación E = mc 2 .
  118. Einstein, "Ether", Sidelights (Methuen, 1922), p 13 : "[A] c de acuerdo con la teoría especial de la relatividad, tanto la materia como la radiación son formas especiales de energía distribuida, masa ponderable que pierde su aislamiento y aparece como un forma especial de energía ".
  119. ^ Braibant, Giacomelli & Spurio, Particles and Fundamental Interactions (Springer, 2012), p 2 : "Cualquier partícula puede crearse en colisiones entre dos partículas de alta energía gracias a un proceso de transformación de la energía en masa".
  120. ^ Brian Greene explicó: "La gente a menudo tiene una imagen incorrecta de lo que sucede dentro del LHC , y yo soy tan culpable como cualquiera de perpetuarlo. La máquina no rompe las partículas para pulverizarlas y ver qué hay dentro. choca con una energía extremadamente alta. Dado que, a fuerza de la famosa ecuación de Einstein, E = mc 2 , la energía y la masa son una y la misma, la energía combinada de la colisión se puede convertir en una masa, en otras palabras, una partícula, que es más pesado que cualquiera de los protones en colisión. Cuanta más energía esté involucrada en la colisión, más pesadas serán las partículas que podrían surgir "[Avent, " The Q&A " , Economist , 2012].
  121. ^ a b c Kuhlmann, "Debate de físicos" , Sci Am , 2013.
  122. Mientras que los Principia de Newton infirieron el espacio absoluto y el tiempo absoluto, omitieron un éter y, según la ley de Newton de la gravitación universal , formalizaron la acción a distancia, una supuesta fuerza de gravitación que abarca todo el universo instantáneamente, el trabajo posterior de Newton Optiks introdujo un éter vinculante para los cuerpos. 'materia, pero cuerpos exteriores más densos, y, no distribuidos uniformemente en todo el espacio, en algunos lugares condensados, por lo que los "espíritus etéreos" median la electricidad, el magnetismo y la gravitación. (Whittaker, Historia de las teorías del éter y la electricidad (Longmans, Green & Co: 1910), págs. 17-18 )
  123. ^ Norton, "La causalidad como ciencia popular" , en Price & Corry, eds, Mature Causation, Physics, and the Constitution of Reality (Oxford UP, 2007), especialmente p 12 .
  124. ^ Fetzer, ch 3, en Fetzer, ed, Science, Explanation, and Rationality (Oxford UP, 2000), p 111 .

Fuentes [ editar ]

  • Avent, Ryan, "Preguntas y respuestas: Brian Greene: la vida después del Higgs" , blog de The Economist : Babbage , 19 de julio de 2012.
  • Ayala, Francisco J & Theodosius G Dobzhansky, eds, Studies in the Philosophy of Biology: Reduction and Related Problems (Berkeley y Los Ángeles: University of California Press, 1974).
  • Bechtel, William , Discovering Cell Mechanisms: The Creation of Modern Cell Biology (Nueva York: Cambridge University Press, 2006).
  • Bechtel, William, Filosofía de la ciencia: una visión general de la ciencia cognitiva (Hillsdale, Nueva Jersey: Lawrence Erlbaum Associates, 1988).
  • Bem, Sacha & Huib L de Jong, Theoretical Issues in Psychology: An Introduction , 2nd edn (Londres: Sage Publications, 2006).
  • Ben-Menahem, Yemima , Convencionalismo: de Poincaré a Quine (Cambridge: Cambridge University Press, 2006).
  • Blackmore, JT & R Itagaki, S Tanaka, eds, Ernst Mach's Vienna 1895-1930: Or Phenomenalism as Philosophy of Science (Dordrecht: Kluwer Academic Publishers, 2001).
  • Boffetta, Paolo, "La causalidad en presencia de asociaciones débiles" , Revisiones críticas en ciencia de los alimentos y nutrición , diciembre de 2010; 50 (s1): 13–16.
  • Bolotin, David, Una aproximación a la física de Aristóteles: con especial atención al papel de su manera de escribir (Albany: State University of New York Press, 1998).
  • Bourdeau, Michel, "Auguste Comte" , en Edward N Zalta, ed, The Stanford Encyclopedia of Philosophy , invierno de 2013 ed.
  • Braibant, Sylvie & Giorgio Giacomelli, Maurizio Spurio, Particles and Fundamental Interactions: An Introduction to Particle Physics (Dordrecht, Heidelberg, Londres, Nueva York: Springer, 2012).
  • Buchen, Lizzie, "29 de mayo de 1919: Un eclipse mayor, en términos relativos" , Wired , 29 de mayo de 2009.
  • Buckle, Stephen, Hume's Enlightenment Tract: The Unity and Purpose of An Inquiry Concerning Human Understanding (Nueva York: Oxford University Press, 2001).
  • Burgess, Cliff & Guy Moore, The Standard Model: A Primer (Nueva York: Cambridge University Press, 2007).
  • Chakraborti, Chhanda, Logic: Informal, Symbolic and Inductive (Nueva Delhi: Prentice-Hall of India, 2007).
  • Chakravartty, Anjan, "Realismo científico" , en Edward N Zalta, ed, The Stanford Encyclopedia of Philosophy , verano de 2013 ed.
  • Close, Frank , "Mucho ruido y pocas nueces" , Nova: The Nature of Reality , PBS Online / WGBH Educational Foundation , 13 de enero de 2012.
  • Comte, Auguste, auth, JH Bridges, trans, A General View of Positivism (Londres: Trübner and Co, 1865) [traducción al inglés del francés como 2ª ed. De Comte en 1851, después de la 1ª ed. En 1848].
  • Cordero, Alberto, cap. 3 "Posiciones rechazadas, realismo e historia de la ciencia" , págs. 23–32, en Henk W de Regt, Stephan Hartmann & Samir Okasha, eds, EPSA Philosophy of Science: Amsterdam 2009 (Nueva York: Springer , 2012).
  • Crelinsten, Jeffrey, Jurado de Einstein: La carrera para probar la relatividad (Princeton: Princeton University Press , 2006).
  • Cushing, James T, Mecánica cuántica: Contingencia histórica y la hegemonía de Copenhague (Chicago: University of Chicago Press, 1994).
  • Einstein, Albert, "El éter y la teoría de la relatividad" , págs. 3-24, Sidelights on Relativity (Londres: Methuen, 1922), la traducción inglesa de Einstein, "Äther und Relativitätstheorie" (Berlín: Verlag Julius, 1920), basado en sobre el discurso de Einstein del 5 de mayo de 1920 en la Universidad de Leyden , y recopilado en Jürgen Renn, ed, The Genesis of General Relativity , Volume 3 (Dordrecht: Springer, 2007).
  • Fetzer, James H, "Carl Hempel" , en Edward N Zalta, ed, The Stanford Encyclopedia of Philosophy , primavera de 2013 ed.
  • Fetzer, James H. , ed. Ciencia, explicación y racionalidad: aspectos de la filosofía de Carl G. Hempel (Nueva York: Oxford University Press, 2000).
  • Feynman, Richard P. , QED: The Strange Theory of Light and Matter , con una nueva introducción de A Zee (Princeton: Princeton University Press, 2006).
  • Flew, Antony G , A Dictionary of Philosophy , 2nd edn (Nueva York: St Martin's Press, 1984), "Positivism", p 283 .
  • Friedman, Michael, Reconsiderando el positivismo lógico (Nueva York: Cambridge University Press, 1999).
  • Gattei, Stefano, Karl Popper's Philosophy of Science: Rationality without Foundations (Nueva York: Routledge, 2009), cap 2 "Ciencia y filosofía" .
  • Grandy, David A., Realidad cuántica cotidiana (Bloomington, Indiana: Indiana University Press, 2010).
  • Hacohen, Malachi H, Karl Popper: los años de formación, 1902-1945: Política y filosofía en la Viena de entreguerras (Cambridge: Cambridge University Press, 2000).
  • Jegerlehner, Fred, "El modelo estándar como una teoría efectiva de baja energía: ¿Qué está desencadenando el mecanismo de Higgs?" , arXiv (Física de altas energías - Fenomenología): 1304.7813, 11 de mayo de 2013 (última revisión).
  • Karhausen, Lucien R (2000). "Causalidad: el grial esquivo de la epidemiología". Medicina, Salud y Filosofía . 3 (1): 59–67. doi : 10.1023 / A: 1009970730507 . PMID  11080970 .
  • Kay, Lily E , Molecular Vision of Life: Caltech, the Rockefeller Foundation y The Rise of the New Biology (Nueva York: Oxford University Press, 1993).
  • Khrennikov, K, ed, Proceedings of the Conference: Foundations of Probability and Physics (Singapur: World Scientific Publishing, 2001).
  • Kuhlmann, Meinard, "Los físicos debaten si el mundo está hecho de partículas o campos, o de algo completamente distinto" , Scientific American , 24 de julio de 2013.
  • Kundi, Michael (julio de 2006). "Causalidad e interpretación de la evidencia epidemiológica" . Perspectivas de salud ambiental . 114 (7): 969–74. doi : 10.1289 / ehp.8297 . PMC  1513293 . PMID  16835045 .
  • Laudan, Larry , editor, Mente y medicina: problemas de explicación y evaluación en psiquiatría y ciencias biomédicas (Berkeley, Los Ángeles, Londres: University of California Press, 1983).
  • Laughlin, Robert B , A Different Universe: Reinventing Physics from the Bottom Down (Nueva York: Basic Books, 2005).
  • Lodge, Oliver , "El éter del espacio: una concepción física" , Scientific American Supplement , 27 de marzo de 1909; 67 (1734): 202–03.
  • Manninen, Juha & Raimo Tuomela, eds, Ensayos sobre explicación y comprensión: estudios en la Fundación de Humanidades y Ciencias Sociales (Dordrecht: D. Reidel, 1976).
  • Melia, Fulvio, El agujero negro en el centro de nuestra galaxia (Princeton: Princeton University Press, 2003).
  • Montuschi, Eleonora, Objects in Social Science (Londres y Nueva York: Continuum Books, 2003).
  • Morange, Michel, traducción de Michael Cobb, A History of Molecular Biology (Cambridge MA: Harvard University Press, 2000).
  • Moyer, Donald F, "Revolution in science: The 1919 eclipse test of general relativity" , en Arnold Perlmutter & Linda F Scott, eds, Studies in the Natural Sciences: On the Path of Einstein (Nueva York: Springer, 1979).
  • Newburgh, Ronald y Joseph Peidle, Wolfgang Rueckner, "Einstein, Perrin y la realidad de los átomos: 1905 revisitado" , American Journal of Physics , junio de 2006; 74 (6): 478-481 .
  • Norton, John D, "La causalidad como ciencia popular" , Philosopher's Imprint , 2003; 3 (4), recopilado como capítulo 2 en Price & Corry, eds, Causation, Physics, and the Constitution of Reality (Oxford UP, 2007).
  • Ohanian, Hans C, Einstein's Mistakes: The Human Failings of Genius (Nueva York: WW Norton & Company, 2008).
  • Okasha, Samir, Philosophy of Science: A Very Short Introduction (Nueva York: Oxford University Press, 2002).
  • O'Shaughnessy, John, Explicación del comportamiento del comprador: conceptos centrales y cuestiones filosóficas de la ciencia (Nueva York: Oxford University Press, 1992).
  • Parascandola, M; Weed, DL (diciembre de 2001). "Causalidad en epidemiología" . Revista de epidemiología y salud comunitaria . 55 (12): 905-12. doi : 10.1136 / jech.55.12.905 . PMC  1731812 . PMID  11707485 .
  • Pigliucci, Massimo , Respuestas para Aristóteles: cómo la ciencia y la filosofía pueden llevarnos a una vida más significativa (Nueva York: Basic Books, 2012).
  • Popper, Karl , "Contra las grandes palabras", En busca de un mundo mejor: conferencias y ensayos de treinta años (Nueva York: Routledge, 1996).
  • Price, Huw y Richard Corry, eds, Causation, Physics, and the Constitution of Reality: Russell's Republic Revisited (Nueva York: Oxford University Press, 2007).
  • Redman, Deborah A, The Rise of Political Economy as a Science: Methodology and the Classical Economists (Cambridge MA: MIT Press, 1997).
  • Reutlinger, Alexander & Gerhard Schurz, Andreas Hüttemann, "Ceteris paribus leyes" , en Edward N Zalta, ed, The Stanford Encyclopedia of Philosophy , primavera de 2011 ed.
  • Riesselmann, Kurt, "Concepto de éter en la explicación de fuerzas" , Inquiring Minds: Questions About Physics , Departamento de Energía de Estados Unidos : Fermilab , 28 de noviembre de 2008.
  • Rothman, Kenneth J; Groenlandia, Sander (2005). "Causalidad e inferencia causal en epidemiología". Revista estadounidense de salud pública . 95 (Supl. 1): S144–50. doi : 10.2105 / AJPH.2004.059204 . hdl : 10.2105 / AJPH.2004.059204 . PMID  16030331 .
  • Rowlands, Peter, Oliver Lodge y la Sociedad Física de Liverpool (Liverpool: Liverpool University Press, 1990).
  • Sarkar, Sahotra y Jessica Pfeifer, eds, The Philosophy of Science: An Encyclopedia, Volumen 1: A – M (Nueva York: Routledge, 2006).
  • Schwarz, John H (1998). "Desarrollos recientes en la teoría de supercuerdas" . Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 95 (6): 2750–7. Código Bibliográfico : 1998PNAS ... 95.2750S . doi : 10.1073 / pnas.95.6.2750 . PMC  19640 . PMID  9501161 .
  • Schweber, Silvan S, QED y los hombres que lo hicieron: Dyson, Feynman, Schwinger y Tomonaga (Princeton: Princeton University Press, 1994).
  • Schliesser, Eric, "Newtonianismo y anti-Newtonianismo de Hume" , en Edward N Zalta, ed, The Stanford Encyclopedia of Philosophy , invierno de 2008 ed.
  • Spohn, Wolfgang, Las leyes de las creencias: teoría de la clasificación y sus aplicaciones filosóficas (Oxford: Oxford University Press, 2012).
  • Suppe, Frederick , ed, The Structure of Scientific Theories , 2ª ed. (Urbana, Illinois: University of Illinois Press, 1977).
  • Tavel, Morton, Física contemporánea y los límites del conocimiento (Piscataway, Nueva Jersey: Rutgers University Press, 2002).
  • Torretti, Roberto, The Philosophy of Physics (Nueva York: Cambridge University Press, 1999).
  • Vongehr, Sascha, "Descubrimiento de Higgs rehabilitando el despreciado Einstein Ether" , Science 2.0: sitio web Alpha Meme , 13 de diciembre de 2011.
  • Vongehr, Sascha, "Apoyando el espacio-tiempo relacional abstracto como fundamental sin doctrinismo contra la emergencia , arXiv (Historia y Filosofía de la Física): 0912.3069, 2 de octubre de 2011 (última revisión).
  • von Wright, Georg Henrik, Explicación y comprensión (Ithaca, NY: Cornell University Press, 1971/2004).
  • Wells, James D, Teorías efectivas en física: de órbitas planetarias a masas de partículas elementales (Heidelberg, Nueva York, Dordrecht, Londres: Springer, 2012).
  • Wilczek, Frank , La ligereza del ser: masa, éter y la unificación de fuerzas (Nueva York: Basic Books, 2008).
  • Whittaker, Edmund T , A History of the Theories of Aether and Electricity: From the Age of Descartes to the Close of the Nine 19th Century (Londres, Nueva York, Bombay, Calcuta: Longmans, Green, and Co, 1910 / Dublín: Hodges, Figgis y Co, 1910).
  • Wilczek, Frank (enero de 1999). "La persistencia del éter" (PDF) . Física hoy . 52 : 11-13. doi : 10.1063 / 1.882562 .
  • Wolfson, Richard, Simply Einstein: Relativity Demystified (Nueva York: WW Norton & Co, 2003).
  • Woodward, James, "Explicación científica" , en Edward N Zalta, ed, The Stanford Encyclopedia of Philosophy , invierno de 2011 ed.
  • Wootton, David, ed. Pensamiento político moderno: lecturas de Maquiavelo a Nietzsche (Indianápolis: Hackett Publishing, 1996).

Lectura adicional [ editar ]

  • Carl G. Hempel, Aspects of Scientific Explanation and other Essays in the Philosophy of Science (Nueva York: Free Press, 1965).
  • Randolph G. Mayes, "Teorías de la explicación" , en Fieser Dowden, ed, Internet Encyclopedia of Philosophy , 2006.
  • Ilkka Niiniluoto, "Covering law model", en Robert Audi, ed., The Cambridge Dictionary of Philosophy , 2ª ed. (Nueva York: Cambridge University Press, 1996).
  • Wesley C. Salmon, Cuatro décadas de explicación científica (Minneapolis: University of Minnesota Press, 1990 / Pittsburgh: University of Pittsburgh Press, 2006).