Evolución de la Ciencia y la Técnica a través de la Historia

Antigüedad y Edad Media

1.1. Babilonia y Egipto

1.2. El fermento presocrático

1.3. Las instituciones científicas atenienses

1.4. El período alejandrino

1.5 La ciencia medieval


INTRODUCCIÓN

La ciencia y la Técnica

Rasgos propios de los humanos es la creación de instrumentos. Se nos ha llamado “Homo faber”, las actitudes típicas del Homo Faber, su instrumentalización del medio, su confianza en los útiles y en la productividad del fabricante de objetos artificiales, pero este rasgo no aparece solo en la Época Moderna, tenemos que remontarnos a los primeros restos humanos. Entre ellos encontramos los primeros instrumentos, los primeros indicios de lo que llamamos técnica.

El desarrollo de la técnica fue independiente de la investigación científica. Se habla de una tradición artesanal y una tradición intelectual

En la tradición artesanal se designa con técnica, se transforma una realidad natural en una realidad artificial. Técnica es intervenir en la realidad para modificarla de acuerdo con nuestros intereses.

Se ha clasificado las etapas de la historia de la humanidad por los instrumentos que utilizaban los humanos: Edad de la Piedra, Paleolítico y Neolítico y con posterioridad la Edad de los Metales (Cobre, Bronce y Hierro).

¿Es la técnica, los instrumentos, los que convierten al hombre en humano, es lo que nos distingue del resto de especies animales? Los etólogos y antropólogos nos presentan ejemplos de animales que también utilizan instrumentos y técnicas de caza ( lobos cazan en manada o los cuervos rompen nueces con piedras). Los humanos lo hacemos por aprendizaje y no por instinto.

Lo que realmente nos hace humanos, como dice L. Mumford , Si todos los inventos mecánicos de los últimos cinco mil años fueran borrados habría sin duda una catastrófica pérdida de vidas, pero el hombre continuaría siendo humano. En cambio, si desapareciese la facultad de comprender…el hombre se sumiría en un estado cercano a la parálisis, más desvalido y brutal que el de cualquier animal.

Los chimpancés se quedan extasiados ante un amanecer. También los humanos. Pero esa facultad de entender hace que los humanos intentemos comprender qué ocurre, es lo que algunos filósofos llamarán “inteligencia curiosa” Séneca .

Si rastreamos este segundo rasgo, la comprensión de lo que nos rodea, podemos hablar de la revolución neolítica. No solamente aparecen instrumentos, sino que se producen innovaciones técnicas sorprendentes que hacen que cambie nuestro modo de vida, nos hacemos sedentarios. La agricultura y la ganadería proporcionó mayor seguridad en el abastecimiento de alimentos y una mejora en las condiciones de vida que hizo posible la aparición de las primeras ciudades.

-La Técnica del azar. Es la del hombre prehistórico. Se caracteriza por ser muy simple y por estar al alcance de casi todos los miembros de una comunidad.

-La técnica del artesano.Es más complicada y por eso surgen especialistas. El artesano tiene conciencia de inventor y pasa por un largo período de aprendizaje para adquirir su domino de la técnica. Sólo produce utensilios, no máquinas.

-La técnica del técnico. Se pasa del utensilio a la máquina, que es un instrumento que actúa por sí mismo. Hay dos tipos de técnicos: los que construyen máquinas (ingenieros) y los que cuidan de ellas y las utilizan para fabricar productos (obreros).

En el paso de una etapa a otra podremos ver como va cambiando la forma de entender y comprender el mundo, dando lugar a la ciencia. Así podemos distinguir una ciencia antigua y media que explicará el paso de la técnica del azar al artesano y una ciencia moderna “nueva ciencia” S. XVI, que dará lugar a la técnica del Técnico. Análisis racional y experimento son las bases de la “nueva técnica” es lo que hoy llamamos Tecnología. La tecnología es fruto de la incorporación del método experimental en la técnica y de la interacción de la propia técnica con la ciencia.

1. LA TÉCNICA DEL AZAR

La revolución del neolítico. El control del tiempo

Se produce un cambio muy destacado en la vida humana. No se trata sólo de pequeños instrumentos para cazar, sino también de grandes instrumentos realizados con enormes piedras, monumentos llamados megalíticos. Algunos se han entendido como monumentos funerarios. Pero otros ya no tienen esta explicación(Stonenhen en Gran Bretaña).

Otros monumentos se encuentran en los lugares mas avanzados .En el denominado Creciente fértil nos encontramos con las enormes mastabas de Babilonia y las pirámides de Egipto. En su construcción se utilizaron instrumentos como las plomadas, las escuadras, máquinas para transportar enormes piedras, ruedas, se utilizaron animales y esclavos. Los jeroglíficos nos describen las relaciones entre las estrellas y los humanos. También en Babilonia nos encontramos con los primeros tipos de escritura la cuneïforme. Las tablillas encontradas muestran transacciones económicas y el primer código legal.

En la Biblia se habla de unos Magos de Oriente que seguían una estrella. En este Oriente el desarrollo y el bienestar económico ha permitido que una clase social se dedique a controlar y cobrar impuestos (leyes y cálculos), pero también que se intente controlar el tiempo. El beneficio es la mejora de las cosechas controlando el ciclo de las estaciones, surgen así los primeros calendarios lunares y solares en Babilonia.

Las pirámides de Egipto no son solo monumentos funerarios. Hoy día conocemos que los Egipcios saben medir y encontrar sus campos después de cada inundación del Nilo y hacer mapas estelares sobre la Tierra y construir calendarios siguiendo el recorrido de las estrellas.

En Egipto también se desarrolla la medicina. Como resultado del embalsamamiento tienen un gran conocimiento anatómico. Pero también diseñan y fabrican instrumentos para realizar operaciones de todo tipo. Mucho de nuestro instrumental quirúrgico tiene su origen en Egipto.

Diamond: Historia.

Importancia de la geografía en la evolución de la tecnología humana.

Eje Este-Oeste en Eurasia

Norte-Sur en América

Diamond: La receptividad de los inventos.

10 factores que influyen en la recepción y transmisión de la tecnología.

2.La técnica del artesano.

2.2 El origen de la ciencia en Grecia

Son los griegos (pueblo de comerciantes,con idioma común, muchas polis ,con leyes distintas y en contacto con los imperios dominantes en Oriente próximo pero también en contacto con pueblos menos desarrollados) los que desarrollarán esa gran cualidad humana que es la “curiosidad inteligente”. Intentarán entender lo que ocurre a su alrededor. La naturaleza (fisis) que les rodea, sigue un orden. Un orden que los distintos pueblos han intentado controlar con sus distintos calendarios. ¿Por qué sigue ese orden. Por que deja de ser un caos o un capricho de los dioses y se convierte en un cosmos en el que se puede predecir y adivinar lo que va a suceder?

2.2.1. Los filósofos jonios, presocráticos

S.VI a C. (Tales, Anaximandro y Anáximenes) serán los primeros que intentarán responder. Van a proponer un principio (arje) que explicará esos cambios con el solo uso de la razón el (logos) dejando a un lado los artificios mitológicos y religiosos.

2.2.2. Las escuelas filosóficas

Los griegos los primeros en establecer centros de discusión y debate, son las llamadas escuelas.

La escuela pitagórica, S. V. a C. Sur de Italia y Sicilia. Carácter místico religioso. Afirmarán que todo está constituido por los números, que se encuentran tanto en el cielo, los movimientos de los astros, como en la naturaleza y la música (armonia de las estrellas–>“música celestial”). Pero también descubrirán su gran defecto, hay números sin explicación sin razón, pi, la raíz cuadrada de dos. Pero no por ello renunciarán a sus principios, sino que los encubrirán con ritos místicos. Hay que atribuirles a ellos el gran desarrollo de las matemáticas.

-La escuela eleática

Parménides (entre el 530 a.C. y el 515 a. C.) propuso dos vías para conocer: la vía de la verdad y la vía de la opinión.

En la vía de verdad afirma que es imposible el movimiento. “El ser es y no puede no ser”. El ser según él es eterno, uno, inmutable, perfecto.

En la vía de la opinión es posible el movimiento: “El ser es y puede no ser”. Es lo que nos ofrecen los sentidos, un mundo cambiante.

Zenón de Elea (490 a.C. – 430 a.C.) propone paradojas, una de las más famosas es la de Aquiles y la tortuga ( Aquiles una ventaja de 100 m. a la tortuga. Cuando Aquiles ha cubierto esos 100 m., la tortuga se ha desplazado 10 m.Y así indefinidamente.)

La Academia Platón fundará en Atenas la Academia. Un centro para el diálogo, para el desarrollo de la dialéctica, continuación del método mayeutico de Sócrates. Será un importante centro de desarrollo de las matemáticas y la precisión de los conceptos a través de la búsqueda de la definición, la esencia. Se clarificarán y definirán conceptos a los que llama ideas como el bien, la belleza, la justicia. Las ideas son lo permanente, lo perfecto, lo que no cambia, eterno y forma el mundo inteligible donde están también las almas y los dioses. El mundo que percibimos por los sentidos es el mundo sensible cambiante, material e imperfecto, perecedero.

La ciencia consistirá en buscar lo que permanece, lo que no cambia. Hay distintos modos de encontrarlo:

El cosmos de Platón es como un organismo vivo creado por el Demiurgo dotado de alma como un ser vivo. El centro de este universo lo ocupa la Tierra que tiene forma esférica por ser la figura perfecta (primer modelo Geocéntrico del cosmos). El movimiento de los astros es circular y uniforme. Todo el universo es homogéneo y está formado por los elementos de que habían hablado los filósofos jonios: tierra, agua, aire y fuego.

A los observadores y estudiosos del universo se les presentaban unas irregularidades, que llamamos anomalías. Estas son tres:

1ª Las estaciones no tienen la misma duración. Si el movimiento de los astros es circular y uniforme. ¿Cómo se explica ?

2ª Los llamados planetas no tienen un movimiento circular.

3ª Los astros no siempre tienen la misma intensidad de brillo y su luz parece hacer aumentar y disminuir su tamaño.

Platón intentó dar respuesta con la distinción entre conocimiento sensible e inteligible. El conocimiento sensible no es fiable. El conocimiento inteligible obtenido con el uso del entendimiento (razón) y la dialéctica nos lleva a descubrir lo permanente, lo que no cambia. Estas anomalías las atribuirá y al cambio propio del conocimiento sensible.

El Liceo

Aristóteles explicará la ciencia de otro modo, con el uso de los sentidos y la abstracción de la razón (la abstracción consiste en eliminar lo particular y encontrar lo común a una clase de seres). Es el iniciador del empirismo, valora la observación y la experiencia.

Bajo la protección de Filipo de Macedonia primero y la de su hijo Alejandro Magno después fundará el Liceo, también llamada la escuela peripatética. En cuanto a su método de trabajo, por las mañanas las dedicaban a pasear y hablar sobre un tema pero por la tarde se sentaban y ponían por escrito las conclusiones a las que habían llegado. Es la primera vez que la ciencia se expresa en forma de ensayo. . En su escuela se iniciarán multitud de ciencias: psicología, biología, filosofía primera, botánica, zoología, física.

Aristóteles define la ciencia como saber de las causas. Según él todo efecto tiene una causa, es lo que después se llamará el principio de causalidad. Las causas son de cuatro tipos:

MATERIAL: ¿De qué está hecho?

FORMAL: ¿Cuál es su forma? ¿Cómo se organizan las partes en un todo? La estructura

EFICIENTE: ¿Quién lo hace? ¿Cómo se hace? ¿Cómo funciona?

FINAL: ¿Para qué está? ¿Cuál es su función?

En la Ética a Nicómaco ofrece una primera clasificación de las ciencias:

-Teóricas: se ocupan de los primeros principios. Metafísica, Matemáticas, Filosofía, Teología y Física

-Prácticas: su objetivo es saber vivir: Ética, Política y Economía.

-Poiéticas: su objetivo es saber hacer: Medicina, arquitectura, poesía y música.

-La física, que estudia el movimiento, se llama física teleológica porque intenta explicar el por qué o para qué del movimiento, es decir, la causa final.

Diferencia sus tipos. Los movimientos pueden ser naturales o artificiales. El movimiento natural consiste en que cada ser tiende a su lugar natural. Así los elementos de que todos los seres están constituidos tienen su lugar natural: el fuego y el aire (ir hacia arriba), la tierra y el agua ( hacia abajo). Los movimientos artificiales son aquellos que se producen al sacar una sustancia o ser de su lugar natural. Así Aristóteles enuncia el principio de su física: todo lo que se mueve es movido por otro.

En su cosmovisión el universo es heterogéneo (no todo el universo está constituido por los mismos elementos, ni tiene los mismos movimientos). Distingue por un lado, el mundo sublunar, de la Tierra a la Luna, donde rige el movimiento rectilíneo y las sustancias en su composición material están formadas por tierra, agua, aire y fuego.Y el mundo supralunar, de la luna hasta las estrellas fijas. El movimiento de la luna y el resto de los astros hasta las estrellas fijas es el movimiento perfecto, el circular. Los astros están sujetos a esferas de cristal invisibles y entre estas esferas se sitúa el éter.

Esta concepción del universo se denomina el paradigma cualitativo organicista estará vigente durante toda la Edad Media y sólo con Copérnico, Galileo y Kepler se llegará a una explicación por las causas eficientes (Cómo se produce el movimiento). Es la nueva ciencia.

La biblioteca de Alejandría

El nuevo centro científico de la antigüedad en la llamada Biblioteca de Alejandría.

Otras escuelas que proliferaron en el periodo helenístico son los estoicos, los epicúreos o el jardín, los cínicos y los escépticos.

Pusieron su objetivo en el “saber vivir”, se consideraron ciudadanos cosmopolitas que no pudiendo cambiar o influir en los grandes asuntos y decidieron encontrar la felicidad como individuos. Su tema fue la felicidad.

2.2.3. El periodo helenístico y la biblioteca de Alejandría.

Dos épocas: la helenística griega alejandrina que abarca desde el S.IV a. C. al II a C. y la helenística romana desde el II d. C. hasta el S. V d. C.

Época helenística griega alejandrina

El Liceo fundado por los discípulos de Aristóteles en Alejandría fue el centro cultural desde el S. III a. C. Hasta el S. III d. C. Los papiros se perdieron con los sucesivos saqueos e incendios tenemos noticias y fragmentos de grandes obras científicas y técnicas como las de

-Euclides 365-275 a.C. Su obra los Elementos recoge todo lo aportado por los pitagóricos, Hipócrates, Arquitas y Eudoxo. Ha estado vigente hasta el siglo XIX en que aparece la geometría no euclidiana. Se trata de la geometría del plano.Sigue deductivamente la explicación de las relaciones entre líneas, ángulos, superficies y cuerpos geométricos.

-Aristarco de Samos 310a C. En su obra Sobre las dimensiones y distancias entre el sol y la luna. Con procedimientos geométricos y matemáticos calcula las distancias y el tamaño de los astros. Afirma que la tierra gira o está en órbita alrededor del sol.

-Eratóstenes 273 a C. Tercer director de la bilblioteca de Alejandría. Experimento en un pozo de Siena . Calculó el perímetro de la Tierra en pies. Era un gran admirador de Arquímedes.

-Arquímedes 287-212 a C. Nació en Sicilia y estudió con los discípulos de Euclides en Alejandría. En la 2ª Guerra Púnica cuando los romanos asedian Siracusa, donde él vivía, desarrolla un sistema de espejos para hundir los barcos romanos.

En su obra Sobre los cuerpos flotantes formula el principio de la hidrostática. Establece una relación entre peso específico y volumen.

Construye algunos instrumentos técnicos como el llamado tornillo de Arquímedes, para elevar corrientes de agua. Se le atribuyen también las leyes de la palanca. Estudió las fuerzas y construyó poleas y catapultas que lanzaban piedras de hasta 250 Kg. En matemáticas se lo considera un antecesor del cálculo integral descubierto por Leibniz y Newton.

-Herón de Alejandrí construye la Eolípila, primera máquina que utiliza el vapor.

-Eudoxo de Cnido, discípulo de Platón, no se conformó con la explicación de éste para las anomalías. A las 10 esferas propuestas por Platón añadió 4 para cada uno de los 5 planetas que mostraban retrogradación y 3 para el Sol y la Luna que no mostraban retrogradación y 1 para las esferas fijas, en total 27 esferas.

-Calipo (Discípulo de Eudoxo) añadió 7 más. A ellas Aristóteles había añadido 22 más llegando a un total de 56 con todas ellas se explicaba la retrogradación, pero el sistema cosmológico cada vez era más complejo y sólo explicaba una de las anomalías.

-Apolonio (III A c.), Hiparco (II a C.) y sobre todo Ptolomeo (II d C.) intentaron explicar las dos anomalías con el los epiciclos y las deferentes. Cada planeta se mueve sobre dos esferas: una es la deferente, que tiene por centro la Tierra, la otra es el epiciclo que rota dentro de la deferente. Con ello se explicaba el acercamiento y alejamiento a la Tierra (la variación de luz y tamaño) y la retrogradación.

-María la judía II a C. Se trata de una alquimista a la que se le atribuye la construcción de alambiques y el conocido como “Baño María”.

Época helenística romana

Podemos destacar importantes progresos técnicos debidos a los ingenieros y arquitectos romanos.Nos vamos a fijar en los grandes restos y monumentos romanos de la ciudad de Roma y de una pequeña ciudad de provincias.

Segobriga

Era un centro minero ocupado en la extracción del Lapis specularis (Yeso traslúcido) , uso para las ventanas de las casas romanas. En ella se pueden encuentran restos de las termas, el teatro, el anfiteatro, un circo y las calzadas que muestran que era un importante centro de comunicaciones. Estas construcciones eran imitaciones de las que se podían encontrar en Roma.

Roma

Durante el mandato del emperador Trajano se construyeron el Circo Máximo, el Foro y el Panteón. El ingeniero que dirigió las obras fue Teodoro.

El temible Caracalla mandó construir las termas que empleaban tuberías de terracota y plomo. Pero para llevar el agua a Roma desde los manantiales se construyeron los acueductos(con sus arcos ,etc). En su construcción se usaron enormes piedras unidas con cemento formado por una mezcla de puzolana, piedra, cal, arena. La puzolana era una mezcla de sílice, aluminio y óxido de hierro, se extraía de las cenizas del Vesubio.

El emperador Vespasiano mandó construir el Coliseo .Los grandes acontecimientos y espectáculos que en él se desarrollaban dieron pie al desarrollo de la medicina, en especial la cirugía, desarrollando el instrumental quirúrgico y el desarrollo de las primeras anestesias con opio, mandrágora blanca y beleño.

Todavía hoy podemos contemplar muchas “Vías romanas”, se decía que todos los caminos conducían a Roma. El trazado de las vías era recto evitando las curvas para ello se utilizaba como instrumento el groma. Las calzadas estaban formadas por varias capas de mortero, arcilla y basalto culminando en losas. Su financiación era mixta vía impuestos y privada.

Su idioma, el latín y sus fiestas religiosas todavía están presentes en la actualidad gracias al calendario Juliano. Cuando Julio César llegó a Egipto adoptó el año de 365,26 días que ya estaba presente en Egipto. 24 de febrero se llamaba ante diem sextum kalendas martias; el día adicional (366), se le llamaba ante diem bis-sextum kalendas martias, de ahí el nombre de año bisiesto. Al adoptar este calendario cambió el mes Quintil por Julius y su sucesor le siguió cambiando el mes Sextil por Augusto.

A parte de la organización del ejército también debemos a los romanos unas leyes comunes a todo el imperio y aplicables a todos los ciudadanos que serán las bases de nuestro derecho.

Destacar el enfrentamiento que hay en Alejandría entre los cristianos e Hipatia una filósofa neoplatónica de la Biblioteca.

Con la muerte de Hipatia y la quema y destrucción de la Biblioteca de Alejandría podemos decir que se inicia la Edad Media. Poco después los emperadores Licinio y Constantino convierten al cristianismo en la religión del Imperio Constantino I el Grande el año 321 d. C., implantó la semana de siete días

1.5 La ciencia medieval

A)Alta Edad Media S. V-X

El imperio romano acabó con la invasión de los visigodos y los Hunos con Atila

Los visigodos introdujeron la costumbre de numerar los días y el sistema feudal. Al principio eran politeístas, pero poco a poco se fueron convirtiendo al cristianismo. Su capital en la península ibérica fue Tolosa . La cultura y la técnica se desarrolló muy poco en sus reinos. Los reyes visigodos no sabían leer ni escribir y precisaron de escribas. Los escribas eran monjes

En el S. VIII el Califato musulmán de los Omeya conquistó fácilmente la península Ibérica desde el 711 al 726. Se establecieron en ella, llamándola Al-Andalus, hasta el 1492 con la caída del Reino de Granad.

Los musulmanes que conquistaron la península eran árabes y bereberes, pero dentro del califato había multitud de pueblos y todos no hablaban el árabe, pero compartían como religión el Islam.

Gracias al comercio y contacto con la India, junto con el apoyo de los califas que fundan la Casa de la Sabiduría en Bagdad, se traducen muchos libros griegos al árabe y empiezan a desarrollar el sistema de numeración decimal introduciendo como novedad el número cero y el valor de los números según su posición. Este sistema tiene su origen en la China de la dinastía Han en el S. II a. C. Fue adoptado por los hindúes en el S. V pero era un sistema verbal.

Como ejemplo: Cuatro-vacío-tres-seis (6.304)

En el S. VI se convirtió en simbólico_

y.36

A partir de este sistema decimal la aritmética se desarrolló con el algebra. Así

-Al-Khuwarizmi (783-850) que nace en Jiva (Mar de Aral) escribe el libro Sobre el cálculo mediante la transposición y la reducción.

-Al-Battani (859-929) que vive en Bagdad establece el sistema de dos coordenadas para determinar la posición de los astros y mejora del astrolabio.

-Ibn al-Haytam… Alhacén (965-1039) que nace en Basra (Persia) escribe un libro sobre Óptica, en el que trata la reflexión y la refracción. También estudia el funcionamiento del ojo

El franco Carlos Martel (732-734) en la batalla de le Poitiers (Tours) detuvo la conquista musulmana de Europa. En el Siglo VIII y IX se inicia la reconquista de Asturias y la Marca Hispánica. Más tarde Carlomagno (768-814) iniciará el llamado renacimiento carolingio. Durante su reinado se multiplicaron las escuelas monásticas y scriptorias. Los escolares carolingios copiaron y preservaron muchas de las obras clásicas latinas que habían sobrevivido. En estas escuelas se enseñaba el :

Trivium : Gramática, retórica, dialéctica.

Quadrivium : Aritmética, geometría, música, astronomía

B)Baja Edad Media X-XV

El nacimiento de las universidades a partir del S. XII dará un nuevo impulso al renacer de la cultura. La Universidad de París, fue fundada a mediados del siglo XII por el obispo de la ciudad y sus instalaciones se situaron cerca de la Catedral Notre Dame de París.

En Hispania el año 1212 es cuando el rey Alfonso VIII de Castilla otorgó el reconocimiento oficial del Studium Generale de Palencia. Posteriormente se funda la escuela de Salamanca 1218 por el rey Alfonso IX de León.

El rey Alfonso X el Sabio entre 1269 y 1284 impulsará la escuela de Toledo y fundará las Studii o Escuelas generales de latín y de arábigo de Sevilla y Murcia.

El obispo Raimundo de Sauvetato Raimundo de Toledo había fundado la llamada con posterioridad Escuela de Traductores de Toledo. Se tradujeron obras de :

-Al-Khuwarizmi… (Del que viene el nombre de algoritmo) y su libro Libro de la adición y la sustracción según el cálculo de los indios//-Maslama, (…1008) sus Tablas astronómicas, según el meridiano de Toledo.//-De Azarquiel (1029-1087) tenemos las Tablas toledanas, una Clepsidra (Lunar) y el Astrolabio de hoja única, ‘azafea’.//Por último, Gerardo de Cremona (1114-1187) traduce el Almagesto de Ptolomeo

La revolución del S. XII

-Adelardo de Bath (1079-1141) después de sus viajes presenta una nueva concepción de la naturaleza, trata de explicar ‘racionalmente’, interpretar los fenómenos como una sucesión de causas y efectos que se encadenan de forma regular e inteligible. El nuevo arte gótico, será una imitación de la naturaleza.

Plantea la necesidad de la duda sistemática. Y Dios aparece como el creador de la naturaleza, pero de tal manera que ella misma puede producir sus efectos sin la intervención de cualquier poder exterior.

Su obra Cuestiones naturales, adopta la forma de un diálogo con su sobrino. Se trata de una investigación basada en la razón: la RAZÓN frente a la AUTORIDAD.

-Guillermo de Conches (1080-1145) expondrá estos principios en su Philosophie du monde,

Esta revolución del XII se puede apreciar en una renovación de la concepción del espacio como podemos ver las siguientes obras:

-Ambrogio Lorenzetti (1290-1348) Obra: «La Anunciación» (1344). Pinacoteca Nazionale, Siena . Se puede apreciar la introducción de la perspectiva en el suelo

-Duccio (1301-1304) “La Santa Cena” La perspectiva se aprecia en las vigas del techo.

-Alberto Durero será el primero en explicar la perspectiva en su obra: Institutionum geometricarum libris.

Todos estos descubrimientos se aplicarán en la pintura y en la realización de mapas. A través de la escuela de traductores y el comercio con oriente, se recuperarán los mapas de Ptolomeo, Ptolomeo diseñó una proyección cartográfica cónica y otra pseudo cónica, lo que permitirá la elaboración de los mapas de Toscanelli (1397-1482) que posiblemente tuvo Cristóbal Colón entre sus manos.

-Mapamundi de Ptolomeo en el Liber Chronicarum, 1493

-Mapamundi de Ptolomeo incluido en la edición de Roma de 1478

-El mundo de Ptolomeo según Agathodemon. Probable copia del siglo XIII

-Mapamundi de Ptolomeo dibujado por Scotus. Incluido en la edición de Estrasburgo de 1520

-Mapamundi Ptolemaico dibujado en 1482 por Nicolaus Germanus

Con estos mapas y los textos de ABRAHAM ZACUTO PEDRO DE MEDINA y MARTÍN CORTÉS

Podremos valorar críticamente el texto de

Headrick, Daniel R. (2011) El poder y el imperio. La tecnología y el imperialismo de 1400 a la actualidad.

Podemos distinguir en el texto tres tipos de navegación: a estima, por latitud y por portulano.

-La navegación a estima consistía en …”un capitán necesitaba saber tres cosas: la dirección en la que navegaba su barco, algo que le decía su brújula; su velocidad, que estimaba midiendo cuánto tardaba el barco, desde la proa hasta la popa, en dejar atrás un corcho o algún otro objeto flotante; y la hora del día, medida mediante un reloj”.

-En la navegación por latitud…”directamente hacia el norte o el sur siguiendo un meridiano hasta llegar a la latitud de destino y luego virando hacia el este o el oeste hasta alcanzarlo”.

-La navegación por portulanos: “los portulanos o cartas portuláneas, (eran) mapas que guiaban a los barcos de un puerto a otro” Semejante a la navegación de cabotaje.

Como hemos visto en los textos los marineros españoles aprendían a manejar el astrolabio, la ballestina o cuadrante, la brújula y se guiaban por la estrella Polar y la Cruz del Sur.

Finalmente propiciaron que surgiera una corriente crítica representada por los franciscanos de Oxford Grosseteste, Bacon y Ockham. A ellos se sumaron profesores de la universidad de París como Juan Buridán y Nicolás de Oresme. Con ellos se inició una forma de hacer ciencia que incidía más en la observación cuantificable y en la matemática, buscando explicaciones más simples y no tan complejas.

Para ver el final de la Edad Media e inicio de la Edad Moderna, en los textos de

-JERÓNIMO MUÑOZ Un raro y admirable espectáculo: la estrella «nova» de 1572. Crisis de la Cosmología tradicional

-DIEGO DE ZÚÑIGA Copérnico y las Sagradas Escrituras. El movimiento de la tierra no contradice las Sagradas Escrituras.

Podemos apreciar la constatación de hecho que van en contra del sistema Aristotélico-Ptolemaico y la polémica que crea la afirmación por Copérnico del nuevo sistema heliocéntrico.

Edad Moderna

2.1. La época del Renacimiento

2.1.1. Método inductivo

2.2. Tradiciones y cambio científico al siglo XVII

La aparición de un nuevo paradigma: el heliocentrismo

2.3. La ciencia en la Ilustración y los comienzos de la Revolución Industrial

El universo mecánico

3. La Ciencia y la Técnica en la Edad Moderna

    1. El Renacimiento. La nueva ciencia.

Durante los S. XV y XVI surge una ciencia, basada en la observación.

F. Bacon propone un nuevo método, el inductivo, para la ciencia distinto al silogismo aristotélico. Ya muerto se publica (1627) el libro La Nueva Atlántida ,propone en este libro una utopía: la organización científica de la sociedad.

2.1.1. El Método inductivo:

El método propuesto por F. Bacon va de lo particular a lo general. Tenemos que partir de la observación de los hechos, proponer una hipótesis, contrastarla con las observaciones y, si se ve confirmada, proponer una ley. Desde la ley después deducir sus consecuencias, en este momento se va de lo general (ley) a lo particular (método deductivo).

Propone dos fases: primero evitar los prejuicios o “idola” y segundo clasificar las observaciones en tablas.

-Primero: Para poder aplicar bien el método tenemos que alejarnos de los prejuicios e ideas (idola) que distorsionan nuestra visión de los hechos. Estos prejuicios o “idola” son cuatro.

“Ídolos de la tribu”. Son aquellos errores comunes a toda la humanidad y que proceden de la propia naturaleza humana. Entre éstos se encuentra la tendencia a creer en la evidencia de los sentidos cuando en realidad muchas veces lo que hacen es engañarnos o permitir que los sentimientos interfieran o distorsionen los juicios.

“Ídolos de la caverna” (referencia al mito de Platón) . Estas disposiciones individuales son resultado de su propio carácter o la educación recibida.

“Ídolos del foro”. Uso inadecuado del lenguaje, ya que éste se halla repleto de equívocos y ambigüedades. Una misma palabra puede significar cosas diferentes para varias personas

“Ídolos del teatro” Surgen cuando se recurre a la autoridad, en lugar de basarse en la razón y en la experimentación. Ocurre al seguir de forma ciega la autoridad de un maestro.

-Segundo: Propone tres tablas: la tabla de presencia, de ausencia y de grado.

En la tabla de presencia se registraran los casos en que aparece el fenómeno que se investiga (La lluvia por ejemplo).

En la tabla de ausencia se detallarán aquellos casos en que el fenómeno no aparece.

En la tabla de grado se anotarán las observaciones en que se aprecie el incremento o disminución del fenómeno observado (Lluvia torrencial, continuada o pequeñas gotas)

Partiendo de estas tablas se pasará a formular una hipótesis y contrastarla. Si es favorable este contraste se convertirá en una ley. Se ha pasado de lo particular (hechos observados) a lo general (afirmación válida para todas las situaciones) Se trata pues del método inductivo.

En resumen el hombre y los animales pueden ser simulados por autómatas.

Seguramente R. Descartes lo conocía cuando en el Discurso del método trata de los autómatas y refuerza esta mecanización y matematización. Por un lado, la “res cogitans” la sustancia pensante (el alma o el pensamiento), no es material, no tiene extensión, es inmortal e indivisible. De otro lado, la “res extensa” es la sustancia extensa, la materia con sus cualidades primarias que se pueden medir como la extensión (el volumen en sus tres dimensiones)

Se empieza a pasar de un mundo cualitativo a un mundo cuantitativo, donde los instrumentos y las matemáticas lo harán más objetivo. Esto permitirá la formulación de leyes y hacer que se puedan predecir comportamientos de forma más precisa.

En astronomíatambién en base a la observación se cuestiona la autoridad de Aristóteles y Ptolomeo.Las nuevas observaciones de cometas hacían que se cuestionara la autoridad y el modelo de Aristóteles-Ptolomeo.

2..2. Las tradiciones y el cambio científico en el siglo XVII

La aparición de un nuevo paradigma: el heliocentrismo

Fue Copérnico quien siguiendo los estudios del griego Aristarco de Samos presentó un sistema heliocéntrico. Conservaba casi todo el sistema Aristotélico-Ptolemaico: mantenía las órbitas circulares junto con ciertos epiciclos, y también las esferas cristalinas. Sin embargo, se le planteaban problemas que tenía que resolver como: por qué si se movía la Tierra por el espacio, los humanos que vivían sobre su superficie no lo notaban; también al moverse alrededor del sol debía observarse un paralaje en las estrellas fijas.

La hipótesis de Copérnico evitaba las complicaciones de los epiciclos y las deferentes de Ptolomeo, pero se encontraba con serias objeciones:

Jerónimo Muñoz (1573) Libro del nuevo cometa…Cuestiona desde la observación y el “ingenio” o razón humana “Habiendo observado con instrumentos las mudanzas que hay en el cielo…he entendido que es falso lo que dice. En ellos hay mudanza y se encienden los cometas.. en el cielo hay corrupción”

Más tarde, Tycho Brahe, que había construido el mejor observatorio de la época, explicó este paralaje suponiendo una distancia muy grande entre las estrellas fijas y el sol, pero le pareció absurdo, por eso introdujo un sistema intermedio entre el Ptolemaico y el Copernicano. En este sistema los planetas giraban en torno al sol y la Tierra permanecía inmóvil, pero a su alrededor giraban el sol y los planetas. Una consecuencia era que se destruían las esferas cristalinas de Aristóteles y se cruzaban las órbitas del Sol y Marte.

Cuando Kepler tuvo los datos recogidos por T. Brahe, formuló sus tres leyes que presentó en 1609 en su Astronomia Nova:

1. Cada planeta se mueve en una órbita elíptica, y el Sol está en uno de los focos de la elipse.

2. Los planetas se mueven tanto más rápidamente cuanto más cerca están del Sol en su trayectoria.

La velocidad de la revolución de cada planeta es tanto mayor cuanto menor sea su distancia al Sol.

Galileo, diseñó un telescopio con el que observó la luna cristalina de Aristóteles. La luna tenía montañas y valles como la Tierra. El universo ya no era heterogéneo (sublunar con unos elementos y supralunar con otros) Todo el universo era homogéneo, tenía los mismos elementos en todas partes. No sólo unificaba el estudio del universo, sino que proponía también un método: la observación y la matemática, el método de la nueva ciencia.

Kepler y Galileo mantuvieron una correspondencia fluida y a veces discrepante. Los dos intentaban dar explicación a los fenómenos de la naturaleza que observaban, como las mareas.

El nuevo sistema heliocéntrico colocaba al sol en el centro del universo. El universo era homogéneo y los astros se situaban y localizaban en el espacio y el tiempo. Se desplazaban en órbitas elípticas siguiendo las leyes de Kepler. En él el ser humano ya no era el centro del universo. Vivía en un pequeño planeta situado en el Sistema Solar.

2.3. La ciencia en la Ilustración y los comienzos de la Revolución Industrial

La ilustración abarca los siglos XVII y XVIII. Es un período de grandes cambios sociales marcados por la caída de las monarquías absolutas y la aparición de las monarquías parlamentarias y las repúblicas. Se defenderá el uso de la razón frente al argumento de autoridad y frente a lo que llaman superstición (religión), el progreso con el uso de las nuevas técnicas e instrumentos que por primera vez se utilizarán para alcanzar descubrimientos científicos con lo que la ciencia y la técnica aparecen por primera vez coordinados dando origen a la tecnología. Iniciaremos este período con los descubrimientos de instrumentos en el campo de la óptica, veremos por primera vez mujeres que se dedican a la investigación y la ciencia

2.3.1. La óptica

Descartes en su obra la Dióptrica había iniciado estudios geométricos sobre la refracción y la reflexión. Fueron los cristales utilizados por los comerciantes holandeses los que dieron a Galileo la prueba que buscaba para el sistema heliocéntrico. Esta prueba se la aportó el Telescopio. Por primera vez un instrumento al servicio de la investigación modifica el concepto de universo. El cosmos es homogéneo

Los holandeses están utilizando cristales para ver la calidad de las telas. Estos cristales les permiten ver las tramas de los tejidos. Kepler también tiene noticia de ello y en contacto con Galileo le pide una muestra de su instrumento. Johannes Kepler lo construirá con dos lentes convexas.

Anton Leeuwenhoek (1632-1726) dirigirá estas lentes hacia lo más pequeño. Su curiosidad llevará a intentar descubrir el misterio de las aguas del estanque que se vuelven verdes. Descubrirá minúsculos animales que intentará dibujar. Construirá el primer microscopio en 1660. Estos descubrimientos los remite a la Royal Society de Londres donde crearán un gran revuelo.

Otro campo de investigación de la óptica es la luz. Newton con su prisma descompone la luz blanca en colores es lo que llamará el espectro. La hipótesis de Newton era que la luz estaba hecha por corpúsculos (partículas) de diferentes colores y que la diferencia en los colores era debido a la diferencia de velocidades de los corpúsculos de cada uno de ellos. Newton dividió el espectro en siete colores. Imaginó que eran siete colores por una creencia procedente de la antigua Grecia, que decían que había una conexión entre los colores, las notas musicales, los días de la semana y los objetos conocidos del sistema solar.

2.3.2. La mujer, la ciencia y la tecnología. Los salones ilustrados.

En este período las mujeres no tienen acceso a las universidades regidas por clérigos . Las mujeres de la nobleza y la alta burguesía solicitaban clases privadas

En el S. XVIII, Euler tutor de la princesa de Anhalt Dessau. Le explica todos estos detalles de las lentes, pero también nos sorprende con la aplicación de estos descubrimientos en dos nuevos instrumentos: la linterna mágica y el microscopio solar.

En otros textos explica el concepto de electricidad, pero con los prejuicios de los antiguos al hablar y describir el éter.

En Paris (1759) son famosos los salones (donde se reunian importantes fisicos,filosofos,etc)de:

    1. -Mme de Pompadour, gusta de posar en sus retratos con libros

    2. -Mme de Deffand, con su sobrina, Julie de L’Espinasse

    3. -Mme de Bouffers

    4. -Madame de Châtelet llamada cariñosamente “Madame Pompon Newton” por ser la traductora al francés de losPrincipes mathématiques de la philosophie naturelle. Pero además se atreve a escribir sobre un tema de ciencia del momento: La propagación del fuego.

Si observamos estas mujeres hemos pasado de mostrar el libro como elemento de moda a encontrar mujeres capaces de traducir libros de ciencia y de escribirlos. Este proceso tiene su culminación en Marie-Anne Pierette Paulze la esposa de Lavoisier que aparece junto a su esposo como ayudante de laboratorio, pero cuando éste es guillotinado por ser el responsable del arsenal de rey aparecen dos libros sobre química que serán el manual universitario por excelencia durante las siguientes decadas recopilados y escritos porMarie-Anne Pierette Paulze

2.3.3. Las instituciones científicas

Lo propuesto por F. Bacon (1626) en su utopía la Nueva Atlántida se hace realidad. Se fundan las academias de la ciencia:

– Royal Society of London for Improving Natural Knowledge 1660 (Real Sociedad de Londres para el Avance de la Ciencia Natural) en ella destacan muchos científicos como: Sir Isaac Newton, Michel Faraday, Charles Darwin.

-Academia de Ciencias de Francia.1666, Luis XIV, Destacan los científicos: Descartes, Pascal, Fermat.

-Academia Prusiana de las Ciencias. Academia de Berlín,1700, Berlín, Academia de Ciencias de San Petersburgo. 1724, Pedro I. en ella trabajan: Leonhard Euler, Nicolás y Daniel Bernoulli. Destacando la primera mujer en dirigir una academia Yekaterina Dáshkova.

-La Real Academia de las Ciencias de Suecia.1739 . El 27 de noviembre de 1895 Alfred Nobel, en el Club Sueco-Noruego de Paris, instituye los premios que llevarán su nombre.

-La Real Academia de las Ciencias. En 1582, se creó la Academia de Matemáticas de Madrid, Academia de Ciencias (1583-1597) Juan de Herrera, en 1734 Real Academia de Medicina y Ciencias Naturales.

La culminación del sueño de F. Bacon podemos decir que será el viaje (1831) del Beagle de Ch. Darwin.

2.3.4. El universo mecánico

Con la ayuda de las matemáticas, la nueva física, empieza a descubrir las leyes de la naturaleza. Galileo considera que la naturaleza es un libro escrito en lenguaje matemático. Quien descubra esas leyes podrá predecir lo que va a ocurrir.

Tanto el racionalista W. Leibniz, como antes Platón, afirman que este es el mejor de los mundos posibles. Dios, su creador, sólo necesitó las mejores leyes y principios para ponerlo en funcionamiento. Para justificarlo propuso el principio de razón suficiente: de cada hecho hay una razón que es suficiente para explicar de qué manera y por qué razón es tal cual es y no de otra manera.

Su mundo sólo necesitaba el creador, las mónadas (átomos indivisibles de que está hecha la materia y el pensamiento) y las fuerzas y relaciones entre ellas.

Newton discrepa de Leibniz, para élel espacio era absoluto, tenía existencia por sí mismo, era permanente e independiente de la materia, de los objetos, era “el tentáculo de Dios”, siempre igual e inmóvil. Para demostrarlo proponía el ejemplo del cubo de agua colgado de una cuerda. Newton introdujo una nueva fuerza para explicar los movimientos del universo, la gravedad( ley de gravitación universal )

Después del descubrimiento de las tres leyes de Kepler y la ley de la gravitación universal por Newton el matemático Pierre-Simon, marqués de Laplace afirmó que sería capaz de calcular y determinar todos los acontecimientos del futuro siempre que se le facilitaran las posiciones, masas y velocidades de todos los átomos del universo y las diferentes fórmulas del movimiento conocidas. Para un intelecto que conociera todos esos datos, nada quedaría indeterminado y vería ante sus ojos tanto el futuro como el pasado. A este intelecto se le ha dado el nombre de “El demonio de Laplace”.

Con la ley de gravitación universal no sólo se explicaban los movimientos celestes, sino también la caída de los cuerpos y la trayectoria de los proyectiles en la Tierra. Tanto el hombre como el cosmos estaban regidos por las mismas leyes. El universo era homogéneo.

2.3.5. Hacia un nuevo paradigma: ¿La libertad Humana?

Si el universo está determinado, todo lo que en él ocurre se puede predecir. ¿Dónde está la libertad humana?. En este universo y en esta naturaleza no existía la libertad humana. Nuestras conductas estaban determinadas por leyes mecánicas.

Este universo fue puesto en cuestión por D. Hume y J.J. Rousseau. En la crítica que hizo D. Hume del principio de causalidad, el efecto no tiene una conexión necesaria con la causa; esta conexión es sólo probable y se debe a la costumbre, al haber observado ese hecho en otras ocasiones. Al distinguir dos tipos de ciencias: las ciencias que tratan de cuestiones de hecho o ciencias empíricas y las que tratan de relaciones de ideas como las matemáticas y la lógica. Sus predicciones son sólo probables.

Por otro lado J.J. Rousseau ensalzaba en su Emilio la bondad del hombre natural y la libertad del hombre salvaje en la naturaleza.

Kant intentó armonizar el éxito de la ciencia de su época con los resultados escépticos de Hume y el hombre natural . Su propuesta cambió los conceptos de Espacio y Tiempo, pasando a ser intuiciones puras a priori, propias del sujeto trascendental, propias del sujeto que conoce. El cambio es radical, lo llamó el giro copernicano. Dedicó la Crítica de la Razón Práctica a fundar una nueva libertad. Tanto Hume, Rousseau, como Kant auguran grandes cambios en la concepción de la ciencia y del universo.


TEMA 4. Edad Contemporánea

4.1 El siglo XIX

1. La teoría heroica de la invención.

2. La teoría de la evolución.

4.2 El siglo XX


1. El microcosmos: el universo cuántico

    1. La existencia del éter

    2. La naturaleza de la luz

    3. La estructura de la materia. La mecánica cuántica.

  1. El macrocosmos.

    1. La teoría del caos y Gaia

    2. El universo físico

    3. Universos virtuales, simulados

    4. Implicaciones filosóficas. Determinismo y libertad

Las nuevas instituciones de investigación: los laboratorios.

4.1 El siglo XIX

Como dice Ortega y Gasset, en el S. XIX se inicia el tercer estadio de la técnica: el de las máquinas. Dejamos atrás el mundo del artesano y sus instrumentos.

Ortega afirma que la técnica es la reforma que el hombre impone a la naturaleza de cara a la satisfacción de sus necesidades. Ahora bien, el concepto de necesidad humana abarca tanto lo objetivamente necesario como lo superfluo. Las necesidades son reinterpretadas. Así el fuego puede servir tanto para calentarse, como para embriagarse aspirándolo en recintos cerrados.Los inventos unos surgen como respuesta a necesidades de la sociedad, pero otros son los inventos los que crean las necesidades.

DIAMOND: “Teoría heroica de la invención”

En la 1ª Revolución industrial las máquinas que se utilizan en la industria, podríamos pensar aparecen cuando la sociedad tiene una necesidad es lo que llama J. Diamond «La necesidad es la madre de la invención». Se sugieren como ejemplos:

-En 1769 James Watt inventa la máquina de vapor para resolver el problema del bombeo de agua en las minas de carbón.

-En 1794 Eli Whitney inventa la desmotadora de algodón.

-En 1942 El Proyecto Manhattan tiene como objetivo la fabricación de una bomba atómica para ganar la guerra.

Pero también se puede mostrar lo contrario,es decir, descubierta una nueva máquina se le buscan utilidades. Como ejemplos propone:

-En 1877 Thomas Edison inventa el fonógrafo con una finalidad. Más tarde se construyen las gramolas tragaperras

-En 1866 Nikolaus Otto construye el motor de combustión interna pero apenas es utilizado. Más tarde, en 1885 Gottfried Daimler presenta la primera motocicleta y en 1896 aparece el primer vehículo de cuatro ruedas.

Esto lleva a J. Diamond a criticar la que llama «teoría heroica de la invención» según la cual hay un sólo inventor para un descubrimiento o máquina. Su tesis es que la tecnología se desarrolla por acumulación, en lugar de por actos heroicos aislados, y que encuentra la mayoría de sus aplicaciones después de haber sido inventada, en vez de haber sido inventada para una necesidad prevista.

Como ejemplos que la apoyan señala:

Watt mejora a Newcomen: condensador separado de vapor y un cilindro de doble acción): Newcomen, Thomas Savery (1698), Denis Papin (1680 diseñada no construida) y Christian Huygens.

Si no es siempre por las necesidades. ¿Cómo se llega a ellos? Johnson, Stevenseñala siete pautas de la innovación: 1. Lo posible adyacente, 2. La red líquida, 3. Las corazonadas lentas, 4. La serendipia (sueños), 5.El error, 6. La exaptación y 7. Las plataformas.

La exaptación y lo posible adyacente

A Joseph Marie Jacquard en 1801 se le atribuye la invención del Telar mecánico. Desarrolló las primeras tarjetas perforadas para crear dibujos y patrones de seda en la tela, permitiendo elaborar complejos diseños. Se basó en los inventos de Basile Bouchon y Jean Baptiste Falcon, que consistían en el uso de tarjetas perforadas para controlar los telares textiles franceses. Cada tarjeta perforada correspondía a una línea del diseño.

Steven Johnson, Las buenas ideas lo propone como ejemplo de exaptación: tomar una tecnología de un campo y aplicarla a otro para resolver un problema sin relación alguna con el campo original. Charles Babbage tomó la idea del uso de las tarjetas perforadas para programar una máquina analítica .

La máquina analítica de Babbage

Charles Babbage diseñó y participó en la creación de la máquina diferencial. También diseñó, pero nunca construyó, la máquina analítica para ejecutar programas de tabulación o computación.

La máquina diferencial trataba de tabular polinomios usando un método numérico llamado el método de las diferencias. Babbage comenzó la construcción de su máquina, pero ésta nunca fue terminada. Dos cosas fueron mal: 1. La fricción y engranajes internos disponibles provocaban vibraciones, un problema constante. 2. Babbage cambiaba incesantemente el diseño de la máquina.

El diseño se basaba en el telar de Joseph Marie Jacquard y sus tarjetas perforadas. Se considera que la máquina analítica de Babbage fue la primera computadora del mundo.

Alan Mathison Turing entre sus aportaciones al mundo de la tecnología tenemos la máquina de Turing, una máquina matemática. Uno de sus logros más extraordinarios fue sin duda alguna su labor como criptoanalista. Ayudando a descifrar los textos nazis que preparaban Arthur Scherbius y su amigo Richard Ritter fundadores de una empresa de ingeniería y creadores de la máquina ‘Enigma’ con los que se cifraban los mensajes del ejército alemán. Esta máquina estaba formada por un teclado, tres rotores, un reflector y un tablero donde quedaba iluminada la letra cifrada. La máquina de Turing. Capaz de resolver cualquier problema matemático. Esta máquina lógica consiste en una cinta infinita con casillas, un dispositivo que la recorre y un cabezal que lee un símbolo encima de la cinta.

Darwin: la teoría de la evolución

El fijismoes la teoría que afirma que las especies actuales son las que han existido siempre y no presentan novedades ni cambios. Era la teoría vigente desde Aristóteles y durante la edad antigua.

Pero durante la Edad Media se impuso una modificación del fijismo el creacianismo. Según esta teoría es Dios quien ha creado el cosmos y ha puesto a la Tierra y al hombre en lugar especial.

Durante los S. XVI y XVII empieza a cuestionarse esta visión del cosmos desde la astronomía. Son las explicaciones de Copérnico, Kepler y Galileo. La Tierra pierde su lugar central. El sol ocupa el centro del cosmos y la tierra se ve desplazada. En el S. XVII James Ussher calculó el día de la creación: 23 de Octubre del año 4004 a. C. , pero pronto empezaron a encontrarse evidencias en contra.

James Hutton y Charles Lyell ,descubrieron fósiles en diferentes niveles o estratos que databan de épocas distintas y mucho más remotas de lo que afirmaban algunos intérpretes de la Biblia. Surgieron entonces las primeras dudas acerca de la verosimilitud del creacionismo.

George Cuvier defendió, con la nueva teoría catastrofista, que el Diluvio Universal era una entre las muchas catástrofes que había sufrido la Tierra. Con ello salió en defensa del creacionismo.

Pero fueron Lamark, Darmin y Wallace los que acabaron con la credibilidad del creacionismo como posición científica. Presentaron la teoría de la evolución. Las especies cambian desde un origen común. Difieren en la explicación de esos cambios.

Lamarck expuso en su obra Filosofía Zoológica lo que se conoce como lamarkismo. Sostiene la idea de que las transformaciones de los individuos se debían a su esfuerzo por adaptarse al medio. Los cambios son heredados por sus descendientes.(Las jirafas que han tenido que estirar su cuello)

Darwin en su libro El origen de las especies, que publicó 20 años después de su viaje en el Beagle y que vio la luz solo por la próxima aparición del libro de Wallace, explicó que la gran variedad individual es fruto de la lucha por la supervivencia.Sólo aquellos que poseen cambios que les permiten adaptarse mejor al medio sobreviven es lo que se llama la selección natural.

Las evidencias a favor de esta teoría las aportaba la paleontología con sus fósiles (especies estinguidas). Pero en aquella época tenía numerosas críticas como por qué no hay especies intermedias o cuál es el proceso de una especie a otra. La anatomía mostraba semejanzas ,la embriología mostraba cambios y los órganos vestigiales eran otra prueba. Finalmente la Biología molecular nos muestra el ADN compartido.

Tampoco Darwin podía explicar la variabilidad debida al azar. Con el descubrimiento de la genética, cuando Hugo de Vries publicita las leyes de la herencia descubiertas por Gregor Mendel, se empieza a formular lo que será la teoría sintética de la evolución. Según la teoría sintética las modificaciones que se producen en los individuos son mutaciones en su ADN, en su genotipo. Las mutaciones favorables hacen a los individuos más aptos. Pero estos individuos tienen que reproducirse para que esas variaciones permanezcan.

4.2. El siglo xx

El éter se hará innecesario para la explicación de la electricidad cuando se empiece a descubrir el mundo de los átomos, es lo que llamaremos el microcosmos.

En el siglo XX la naturaleza cada vez cobrará más importancia y veremos como se vuelve a la concepción griega de la Tierra y el cosmos como un organismo vivo. El trato que reciba la Tierra incide en el ser humano que es una más de las especies que en ella vive. Es lo que estudiaremos con el nombre de macrocosmos.

  1. El microcosmos: el universo cuántico

El optimismo, que hemos visto incrementó cuando Maxwell con su teoría de campos unificó la electricidad, el magnetismo y la óptica.

Pero esta unificación se vería cuestionada por tres investigaciones:

1º La existencia del éter.

2º La naturaleza de la luz.

3º La estructura de la materia.

    1. La existencia del éter

Maxwell precisaba un medio en el que se propagaran las interacciones entre cargas, por lo que postuló la existencia del “éter”. Para mostrar la existencia A. Michelson propuso un experimento,el experimento fallido más famoso de la historia. En él proponía que las ondas de la luz se retrasarían al tener que vencer la resistencia del éter; esto no ocurrió y tuvo que rechazar la existencia del ‘eter’. Lorenz explicó los resultados diciendo que las longitudes y el tiempo sufrían modificaciones según quien fuese el observador que las midiese. Son las llamadas “transformaciones de Lorenz”. De este modo se demostraba la irrelevancia del ‘eter’. Einstein en 1905 dedujo las ecuaciones de transformación de Lorenz sin necesitar el “éter lumífero” ni el “espacio absoluto estacionario”. Formuló la teoría de la relatividad especial que parte de dos postulados:

1.- El principio de relatividad que dice que las leyes de la física son las mismas en todos los sistemas de referencia no acelerados.

2.- La velocidad de la luz es la misma en todos los sistemas inerciales independientemente del estado de movimiento del sistema, es decir, la velocidad de la luz en el vacío es una constante universal.

Nada se puede mover a una velocidad superior a la de la luz. La velocidad de la luz no se puede acelerar ni ralentizar, pero para cada objeto que viaja a distinta velocidad con respecto a otro, posee un espacio y un tiempo propios es el llamado principio de relatividad del movimiento, es decir, el espacio y el tiempo son relativos de cada objeto según la velocidad que posean (paradoja de los gemelos)

    1. La naturaleza de la luz

Einstein afirmaba que la luz estaba formada por partículas independientes (fotones). Esto se podía observar en el efecto fotoeléctrico por el que recibirá el premio Nobel en 1922. En otro artículo de 1905 formuló la ecuación que ha dado origen a la energía nuclear o atómica: E=mc2. Con esta fórmula se explica la aparente energía de los fenómenos radioeléctricos y la transformación de materia en energía y viceversa

Finalmente será Louis de Broglie entre 1923-24 quien mostrará la dualidad onda-partícula en el mundo cuántico, el comportamiento corpuscular y ondulatorio en las partículas subatómicas, utilizando la función estadística de Born. Esto llevará a descubrir la composición de la materia.

    1. La estructura de la materia. La mecánica cuántica.

John Dalton utilizando una báscula, dio una nueva definición de elemento químico: “materias que poseen un valor atómico propio, de átomos igual de grandes e igual de pesados”. Una reacción química sería una reordenación de los átomos.

En 1897 se descubre el electrón y Joseph Thomson propone en 1904 el modelo del pastel de pasas que no tuvo mucho éxito pero que consiguió reunir a Ernst Rutherfort y Niels Bohr

E. Rutherford que estudiaba el fenómeno de la radioactividad y las partículas alfa y Beta que emiten estas sustancias, propuso para explicar el rebote de partículas alfa sobre placas de metal (experimento de la lámina de oro) el modelo de un núcleo central con carga positiva o negativa rodeado por una esfera de electrones (minisistema planetario regido por fuerzas electromagnéticas). N. Bohr (1911) incluyó el cuanto de energía de Plank-Einstein. También explicó los saltos de órbita de los electrones que se podían apreciar por las radiaciones de diferentes frecuencias.

Arnold Sommerfeld modificó el modelo cambiando a órbitas elípticas cuánticas. De este modo se pudo ordenar y explicar la tabla de los elementos químicos

El principio de incertidumbre de Heisenberg.

Heisenberg afirma que la posición y la velocidad de una partícula no puede conocerse simultáneamente con precisión. Además cuanto más precisa sea la medida de su posición, más imprecisa será la medida de la velocidad y al revés. El universo a partir de este momento no tendrá una forma determinada sino probable. Las esperanzas de Laplace se vieron truncadas por los descubrimientos de Heisenberg.

Estas afirmaciones de Heisenberg llevaron a la interpretación de Conpenhague (N. Bohr, W. Heisenberg 1927) de la mecánica cuántica, según la cual, un sistema cuántico, como el de un electrón, existe bajo una nube de probabilidad hasta que se hace una observación. Es decir, el observador crea la realidad observada ante todas las posibilidades que existían antes de la observación.

Schrödinger y Einstein se opusieron a esta interpretación. Es famosa la frase de Einstein: “El, no juega a los dados” .Schrödinger propuso la paradoja del Gato “El gato de Schrödinger” estaba vivo y muerto al mismo tiempo.

Las partículas subatómicas

En 1928 A. Dirac propuso una ecuación con la que preveía la existencia de nuevas partículas, los positrones. Era el primer ejemplo de antimateria (el encuentro de materia y antimateria produce energía). En 1932 Carl Anderson los descubre experimentalmente con la Cámara de niebla. Poco después se descubre el neutrón. Se inicia el estudio de la radiactividad artificial con el matrimonio Curie . Se empieza a hacer realidad la ecuación de Einstein: E=mc2

Con el inicio de la 2ª Guerra Mundial muchos científicos formarán parte del “Proyecto Manhattan”

Se inicia entonces la llamada “Big Science” con la construcción de Ciclotrones o aceleradores de partículas descubriéndose los mesones, piones, muones y los quarks. En España la física de partículas se estudia en el acelerador Alba en el Vallés (Sabadell).

En Suiza en el que se ha fotografíado el Bosón de Higgs. Los últimos Nobel consiguen detener las partículas subatómicas para observarlas. Las partículas cuánticas pueden encontrarse en dos estados diferentes al mismo tiempo. Se inicia el teletransporte cuántico que consiste en transmitir un texto cuántico de unas partículas, fotones, entre dos puntos situados a 143 Km en Canarias. Un fotón conoce el estado de otro gracias a un fenómeno denominado entrelazamiento, ese conocimiento es la información. Cada vez sabemos más de este microcosmos cuántico, pero podemos decir que en él el principio de causalidad se ha roto. Dada una causa no podemos predecir el efecto. Es más, según el principio de incertidumbre ni siquiera podemos conocer el presente en todos sus detalles. La física se reduce a describir percepciones, no la realidad.

Tenemos que añadir que según la teoría especial de la relatividad de Einstein el espacio y el tiempo son relativos al observador y al sistema inercial en que se encuentren.

Todos estos descubrimientos han dado lugar a lo que se llama la 3ª revolución industrial: la de la microinformática y la robótica.

  1. El macrocosmos.

Tras el optimismo en el siglo XX reaparece la noción de caos.

Primero en el microcosmos y después en el macrocosmos. Considerando como microcosmos el campo de la física subatómica, en este campo, por un lado, al estudiar la estructura de la materia hemos tenido que utilizar los planteamiento estadísticos de la mecánica cuántica que llevan a la noción de azar (probabilidad) y la dificultad de predecir

Segundo en el macrocosmos, en las teorías sobre el universo, se postula la llamada teoría del caos que vamos a estudiar a continuación y la posibilidad de universos múltiples, multiversos, virtuales frente al universo físico.

    1. La teoría del caos

En campos que son muy sensibles a los cambios en las condiciones iniciales, parece predominar el caos, que parece aleatorio e impredecible. Sin algunos comportamientos se ajustan a estrictas reglas matemáticas derivadas de ecuaciones que pueden formularse y estudiarse.

La teoría del caos surgió hacia el año 1900 con el estudio de las complejas trayectorias de los cuerpos en movimiento llevado a cabo por los matemáticos Hadamard y Poincaré. Hacia 1960 el desarrollo de los ordenadores permitió que se iniciaran las simulaciones. Edward Lorenz, investigador de meteorología en 1963 publicó un artículo donde estudiaba sistemas no lineales. Utilizó un sistema de ecuaciones para representar la convección atmosférica, desde este momento los estudios matemáticos se observaban empíricamente. Para explicarlos puso como ejemplo “el efecto mariposa” (el aleteo de una mariposa en un lugar…). Descubría una de las consecuencias de la teoría del caos: a pesar de la simplicidad de las fórmulas, cambios minúsculos en las condiciones iniciales, desembocan en resultados muy distintos impredecibles.

También en la década de 1960 James Lovelock comparó la tierra, a la que llamó Gaia (1979), con un organismo vivo y autoregulado. Según la hipótesis Gaia en la Tierra se dan una serie de interacciones complejas entre la vida y su entorno físico constituido por la atmósfera, los océanos, los casquetes polares y las rocas. Estas interacciones actúan en concierto para que la Tierra permanezca en un estado moderadamente estable que le permite seguir siendo el soporte de la vida.

El universo físico

A nivel del macrocosmos físico se plantean dos posibilidades una estática, la de Einstein y otra dinámica la teoría del ‘Big Bang’

El universo de Einstein: geométrico, estático y curvo.

En 1911 Einstein publica su teoría de la interacción gravitacional según el cual a distancias pequeñas un sistema de referencia acelerado es equivalente a un campo gravitacional. En él la masa inercial es igual a la masa gravitacional. En 1915 propone su teoría de la relatividad general. El espacio deja de ser un marco inmutable ajeno a su contenido energético-material. Hay un espacio-tiempo curvo de cuatro dimensiones. Para representarlo utiliza la geometría no-euclideana de Rieman. Se trata de un espacio no compatible con los requisitos cuánticos y que se resiste a las pruebas experimentales. Desde 1919 Einstein intentó conseguir una teoría del campo unificado que consiste en encontrar un marco geométrico, un espacio-tiempo común, para las dos interacciones conocidas la electromagnética y la gravitacional.

En 1948 Fred Hoyle y Herman Bondi proponern un universo estable que siempre ha tenido y tendrá la misma forma, que no tiene ni principio ni fin, pero en él hay que explicar la creación continua de materia.

El universo en expansión: La teoría del ‘Big Bang’

Desde que en 1908 Henrietta Leavitt con las Cefeidas y sus variaciones en la emisión de luz consigue medir las distancias. La Via Láctea se hace mayor de lo que se pensaba. Su diámetro mide 300.000 años-luz. Nuestra frontera, la Galaxia, y el universo se ensanchan.

Milton Humason comprueba que cuanto más alejadas se encontraban las galaxias, más rápidamente se alejaban. Había un desplazamiento hacia el extremo rojo del espectro, no hacia el azul. Lamaitre propone la existencia de un átomo primitivo en el que toda la materia estaba concentrada y una gran explosión el Big Bang. Arnold Penzias y Robert Wilson observan el fondo de radiación de microondas que suponen producto de esta explosión y James Peebles y Robert Dickens comprueban que la temperatura de la radiación se enfría.

Universos virtuales, simulados

Como conclusión de la mecánica cuántica y el principio de incertidumbre de Schrödinger se conciben universos múltiples.

La teoría de las supercuerdas predice un universo de once o doce dimensiones (las tres dimensiones espaciales, una temporal y seis o siete dimensiones espaciales más). En este hiperespacio las leyes de la naturaleza se vuelven más sencillas. En la teoría de cuerdas, algunas de las partículas más elementales, pueden representarse mediante unas entidades inconcebiblemente pequeñas, y unidimensionales que se denominan cuerdas. Se postula que una de estas cuerdas serían los gravitones que transmiten la fuerza de la gravedad.

Con el uso creciente de ordenadores el astrónomo Martin Rees sugiere la posibilidad de universos simulados por ordenadores donde se puede probar el desarrollo de estos universos de múltiples dimensiones. Como hemos visto estas simulaciones son muy útiles en la teoría de caos.

2.4. Implicaciones filosóficas. Determinismo y libertad

Los descubrimientos del siglo XX a nivel del microcosmos han supuesto grandes cambios en la vida de las sociedades sobre la Tierra. La fusión del átomo ha proporcionado grandes cantidades de energía, y la posibilidad de aniquilar toda la vida sobre la Tierra. Los estudios de las partículas han posibilitado el gran desarrollo de la electrónica ,desarrollos de aplicaciones en medicina, etc.. Esto ha llevado a afirmar a investigadores como Mumford que en la sociedad se puede distinguir una megaciencia y una politécnica. Con la megaciencia, el gran sistema tecnológico, autoritario y poderoso, un ejemplo es la energía nuclear que es controlada por un sistema de expertos y alejada de cualquier injerencia social y la politecnia con los medios de comunicación se difumina la responsabilidad. Nadie se hace responsable políticamente de las desgracias que puede ocasionar una innovación tecnológica. La ciencia y la técnica se han convertido en un enorme entramado en que las piezas aisladas no pueden considerarse como moralmente responsables del todo.

Sin embargo tienden a resaltar la responsabilidad de los humanos en la conservación del planeta e incluso de la propia especie.

Filósofos como Bergson, J. Ortega y Gasset, Sartre enfatizan la libertad humana como característica distintiva del ser humano que le hace responsable de su vida.

El filósofo Hans Jonas, en su libro El principio de responsabilidad, propone reformular el imperativo categórico kantiano en términos biológicos: “Obra de tal modo que la vida del futuro sea como la de hoy”.

Otros como Jurgen Habermas proponen soluciones dialógicas en las que se tomen las decisiones entre todos. John Rawls define los principios de justicia “como aquellos que aceptarían en tanto que seres iguales, en tanto que personas racionales preocupadas por promover sus intereses, siempre y cuando supieran que ninguno de ellos estaba en ventaja o desventaja por virtud de contingencias sociales y culturales”.

  1. Las nuevas instituciones científicas

A lo largo del S. XX la investigación se ha hecho más compleja, no sólo en cuanto a la necesidad de grandes instrumentos que necesitan de una gran financiación económica, sino la necesidad de colaboración entre investigadores debido a la gran especialización.

Como ejemplo, uno de los más conocidos es el MIT Massachusetts Institute of Technology: Fundado en 1861 Creció como resultado de la II Guerra Mundial. Uno de sus descubrimientos es el radar. En él han trabajado Richard Feynman, premio Nobel en 1965 y Murray Gell-Mann, premio Nobel en 1969.

EN UNIVERSIDADES

Instituto Ragon de inmunología

100 mill


Instituto Koch para el cánceer

150 mill


Centro Stanley Investigación Psiquiátrica

165 mill


Fundación de Fibrosis Quística



Se han constituido grandes laboratorios de investigación en las universidades, pero también fuera de ellas como grandes centros de investigación financiados ya no sólo por un estado, sino por consorcios internacionales.

Como ejemplo el CERN Laboratorio Europeo de Física de Partículas:Creado en 1954 en la frontera franco-suiza cerca de Ginebra. Financiado por un consorcio de 20 Estados miembros

Desde mitad del siglo también se han iniciado grandes proyectos con financiación privada con vistas a la obtención de beneficios o por mera filantropía. Un ejemplo del primer caso es el proyecto de la secuenciación del genoma humano por parte de la empresa privada CELERA. Ejemplo de filantropía son:

GENOMA

ESTATAL

Instituto de Investigaciones del Genoma Humano

2000-2003


PRIVADA

CELERA


FILANTROPIA EN INSTITUTOS PUBLICOS DE EEUU

PAUL G. ALLEN (Microsoft)

Instituto de Ciencias del Cerebro

500 mill

FRED KAVLI (Tecno e Inmobiliario)

3 Institutos Fundación Kavli. Estudia el cerebro

100 mill

250 mill

MICHAEL R. BLOOMBERG (ex alcalde de N. York)

Bloomberg


JAMES SIMONS (matemático)



DAVID H. KOCH (petróleo



BILL GATES (Microsoft)

MELINDA

WARREN E. BUFFET

Campaña Giving Pledge (Promesa de Dar)

10.000 mill

ERIC E. SCHMIDT (Google)

Instituto Oceánico Schmidt en Palo Alto California

100 mill

LAWRENCE J. ELLISON (Oracle)

Fundación Médica Ellison Joshua Lederberg (biólogo), 3 Nobel

500 mill


FILANTROPIA EN LA EMPRESA PRIVADA

DMITRY ITSKOV

Vida humana


ELI BROAD (Inmobiliaria y seguros)

MIT Bases genéticas de las enfermedades

700 mill

GORDON MOORE (Intel)

Física, biología, medio ambiente, astronomía

850 mill

NATHAN P. MYHRVOLD (Microsoft)

Fósiles de Tyrannosaurus


RAY DALIO (fondo de inversión)

Calamar gigante


LAMAR SMITH (ebay, google, facebook)

Telescopio meteoritos


SOL PRICE (grandes almacenes)

Secuenciador de ADN automático LEROY HOOD


ANOUSHEH ANSARI

Primera nave privada al espacio

10 mill

SIMONS

Acelerador de partículas de Long Island

13 mill


Tanto unos como otros han suscitado suspicacias y modificado la concepción de la ciencia. A su favor se dice que contribuyen a acelerar los avances científicos, ayudan a presentar positivamente la ciencia y permiten que determinados investigadores asciendan en su prestigio. En contra se dice que se abandona la investigación básica ya que apuestan por estudios híbridos que tranquilizan sus conciencias como proyectos medioambientales, la exploración espacial y la salvación de vidas humanas. La revista Nature añade queesto puede sesgar las investigaciones ya que las dirige hacia campos menos relevantes que se han puesto de moda y disminuye la diversidad de oportunidades para los investigadores.


TEMA 5 Dinámica de la ciencia

5.1. La concepción neopositivista.

5.2. El demarcacionismo falsacionista.

5.3. Paradigmas y revoluciones científicas.

5.4. Programas y tradiciones de investigación científica.

5.5. El anarquismo epistemológico.

5.1. La concepción neopositivista.

Como reacción a las filosofías de tipo idealista (Hegel) surge la filosofía positivista, cuyo máximo representante es Augusto Comte. El olvido de la experiencia en el sistema hegeliano provoca su rechazo por parte de los positivistas. Comte defendía un sistema filosófico que se atuviera a los hechos que pueden ser captados por los sentidos y ser sometidos a comprobación empírica. Frente a la concepción dialéctica hegeliana (tesis, antítesis y síntesis) propuso tres estadios en la evolución del pensamiento: teológico, metafísico y positivo. Según él la historia de las ciencias es paralela a la de los estadios sociales

En el estadio teológico, se pretende dar respuestas absolutas a todos los fenómenos que resultan extraños, tendiendo a hacer que todo se parezca o asimile al sujeto humano. Busca las explicaciones en las razones oscuras y sobrenaturales. Domina en este estadio la imaginación.

En el metafísico, se busca el por qué y la explicación de la naturaleza en las cosas mismas a través de entidades abstractas, inmutables y necesarias. Domina el razonamiento.

En el positivo, es la última etapa del desarrollo del espíritu humano. Se busca el cómo aparecen y se comportan los fenómenos. Solo interesa la descripción fenoménica y la regularidad de su obrar. En este estadio se subordina la imaginación a la observación. Este estadio se rige por el criterio de que toda proposición que no pueda reducirse a un enunciado de un hecho concreto no tiene significado, es un sin sentido. La ciencia se construye con el conocimiento de lo positivo (los hechos, lo concreto, lo dado por la experiencia). Lo positivo a nivel práctico será lo útil, eficaz y constructivo.

El positivismo lógico

En las primeras décadas del S. XX, un grupo de filósofos y científicos que se reúnen en la Universidad de Viena seguirán el pensamiento de Hume y Comte según los cuales los conceptos metafísicos falsean el conocimiento y fundarán el denominado Círculo de Viena

El acto fundacional del Círculo de V tuvo lugar con la publicación del manifiesto que preparó Rudolf Carnap en 1929 titulado La concepción científica del mundo. En él se recogían las actividades e iniciativas del grupo.

Aspira a construir una teoría de la ciencia, mediante un análisis del significado y del método. Solamente son válidas y están dotadas de significado aquellas ciencias que:

-Son tautológicas (su verdad o falsedad es un problema puramente formal, que se resuelve absolutamente a priori)

-Son empíricas (proponen hipótesis cuya verdad o falsedad puede establecerse mediante la verificación empírica, recurriendo a la experiencia sensible.

Se denomina empirismo por el recurso a la experiencia y lógico por el papel que reconoce a las ciencias formales.

A) En las CIENCIAS FORMALES no es preciso recurrir a nada exterior para saber si una proposición determinada es verdadera o falsa. No hay que experimentar. Basta con aplicar las propias reglas de constitución de la ciencia para saber si es o no correcta. Por eso se llaman a priori, porque se puede conocer su validezantes de recurrir a pruebas prácticas. Válido quiere decir formalmente correcto. La matemática y la lógica no informan de nada, son sistemas cerrados, sin referencia a nada exterior, pero sus esquemas formales son muy útiles como modelos y auxiliares de otros conocimientos.

Una proposición lógica o una operación matemática serán válidas si se ajustan a las normas de esa ciencia. En las ciencias formales no nos referimos nunca al mundo sensible.

234 + 42 = 276 es una igualdad válida. Refleja una operación matemática correctamente realizada.

Una ARGUMENTACIÓN puede ser formalmente válida y su conclusión no ser verdadera.

Ej.:

Si p entonces q Si hay sequía los murciélagos se volverán azules.

P Hay sequía

_____________ _____________________________________

q Los murciélagos se volverán azules.

El razonamiento es correcto, cumple el requisito de validez, pero no es verdadero. Eso no sucede en la realidad y a la vez un razonamiento puede resultar no válido y ser verdadero.

Ej.:

Tengo un cajón lleno de canicas.

Saco siete canicas verdes

_____________________

Todas las canicas son verdes

B) En las CIENCIAS NATURALES la VERDAD es el ajuste entre una proposición y lo que ocurre en el mundo. En las ciencias empíricas decimos que sus proposiciones son verdaderas o falsas, y se les aplica un criterio de verdad.

Según el Principio de verificación sólo puede admitirse aquello que es verificable mediante la observación.

Las CIENCIAS DEL ESPÍRITU: METAFÍSICA, ÉTICA son como conjuntos de proposiciones sin sentido y calificadas como meros absurdos.

Como dice, A.J. Ayer: «Una frase no tiene verdadero significado para una persona dada más que si esta última sabe cómo verificar la proposición que quiere expresar. En otra palabras, esta persona debe saber cuáles son las observaciones que la autorizan a aceptar esta proposición como verdadera o a refutarla como falsa».

Solución de compromiso: para que una proposición tenga sentido basta con que sepamos qué experimento tendríamos que hacer para comprobarla.

El hecho de que una proposición sea verificable o no (verdad-empírica o validez-formal) servirá de criterio, no sólo para establecer si es verdadera, sino para decidir si significa algo o es una simple fantasía sin sentido.

Verificable directamente: si es posible comprobar su verdad mediante la observación simple. Esta verdad puede ser:

-Fuerte: absolutamente verdadera.

-Débil: probable.

-Indirectamente verificable: si cumple dos condiciones.

1ª “Que en conjunción con otras determinadas premisas implique una o más declaraciones directamente verificables, que no sean deducibles de estas otras premisas solas».

2ª Que las otras premisas sean, o analíticas, o directamente verificables.

Así se depurará la ciencia y se la edificará sobre sólidos cimientos.

¿Qué función le queda a la FILOSOFÍA?

El quehacer filosófico consiste en una actividad de análisis. La función del filósofo es analizar los métodos científicos y vigilar para que no se deslice ninguna falacia lógica ni ningún término vacío de sentido.

«El filósofo, como analista, no está directamente interesado en las propiedades físicas de las cosas. Está interesado solamente por la forma en que hablamos de ellas.»

Un filósofo que ejemplifica este quehacer es:

Bertrand Russell en su libro Whitehead Principia Matemathica consiguen derivar la matemática pura de la Lógica. En él dicen que el filósofo debe dedicarse a analizar el modo en que la ciencia nos transmite sus descubrimientos, y en este análisis la lógica formal supone un imprescindible y potente auxiliar.

Su filosofía se llama el Atomismo Lógico. Según él cada proposición puede reducirse a una serie de componentes básicos, que son los objetos últimos a que el lenguaje se puede referir, que se corresponden estructuralmente con las partículas elementales de la lógica.

Los hechos elementales en los que se puede dividir la experiencia reciben el nombre de hechos atómicos y deben ser representados por signos lógicos elementales.

Así sería posible formalizar lógicamente toda la realidad, todo el conjunto de la experiencia posible, y se crearía un verdadero, preciso y adecuado lenguaje científico que excluye por principio el error, la multiplicación de términos para expresar la misma cosa, la confusión y la metafísica. Es un intento de construir un lenguaje artificial apto para la ciencia que plasma otro filósofo:

Segun Wittgenstein la Ciencia parte siempre de la observación directa de los hechos, para llegar más tarde a la elaboración de teorías que den razón de ellos, mediante una progresiva generalización.

Explicación -Verificación

Explicación desde los hechos hasta las hipótesis.

Verificación de las hipótesis a los hechos.

Se irá generalizando, agrupando diversas hipótesis bajo una ley más general, hasta completar la ciencia. Para estos filósofos la ciencia es un edificio compacto formado por generalizaciones cada vez más amplias de las que se derivan leyes, hipótesis y se explican y predicen hechos del mundo. B. Russelldice:

«La ciencia, en su último ideal, consiste en una serie de proposiciones dispuestas en orden jerárquico; refiriéndose las del nivel más bajo en la jerarquía a los hechos particulares, y las del más alto, a alguna ley general que lo gobierna todo en el universo. Los distintos niveles en la jerarquía tienen una doble conexión lógica: una hacia arriba, y la otra hacia abajo. La conexión ascendente procede por inducción; la descendente, por deducción.»

«Para llegar a establecer una ley científica existen tres etapas principales: la primera consiste en observar los hechos significativos; la segunda, en sentar hipótesis que, si son verdaderas, expliquen aquellos hechos; tercera, en deducir de estas hipótesis consecuencias que puedan ser puestas a prueba por la observación. Si las consecuencias son verificadas, se acepta provisionalmente la hipótesis como verdadera, aunque requerirá ordinariamente modificación posterior, como resultado del descubrimiento de hechos ulteriores.»

Admite en la ciencia una carga considerable de elementos teóricos (aunque siempre acabarán, por implicación lógica, en enunciados observacionales).Una vez desaparecida la metafísica tradicional, la ciencia y la teoría de la ciencia, deben ocupar el puesto vacío. Los científicos no ofrecen sólo técnicas, sino una visión del mundo.

5.2. El demarcacionismo falsacionista.

El representante de esta posición es K.R. POPPER se despega del principio de verificabilidad. Las teorías científicas son complejas y no pueden despojarse de conceptos generales y teóricos hasta el punto de ser directa y totalmente sometibles a verificación empírico-sensible.

Según él la ciencia se distingue de las proposiciones metafísicas en que está dotada de contenido real y puede elaborar predicciones que pueden comprobarse experimentalmente, bien de manera directa, bien extrayendo conclusiones según las normas de la lógica matemática.

Los experimentos no servirán para probar de una forma concluyente y de una vez por todas la verdad de una teoría, sino que la pondrán a prueba, y si sus predicciones no se cumplen, la teoría será desechada, esta vez definitiva y totalmente. La experiencia no puede probar la verdad, pero sí demostrar la falsedad.

Sustituye el principio de verificabilidad por el de falsabilidad. El método de la ciencia es lo que diferencia la ciencia del pseudoconocimiento. Es el método HIPOTÉTICO-DEDUCTIVO:

El científico inventa una hipótesis y a partir de esta generalización, deduce, con el auxilio y el control de la lógica formal, una serie de conclusiones que luego deberá someter a la prueba de la experiencia.

Rechaza el inductivismo, por muchos casos que hayamos observado, por mucho que se repita un fenómeno, nada nos garantiza que dichas regularidades persistan en el futuro, cuando lo deseable es que la ciencia pueda ofrecer, si no seguridad absoluta, al menos un grado elevado de probabilidad. Desde el punto de vista lógico no es correcto inferir enunciados universales partiendo de otros singulares:

Ej.: Observación Mercedes, Julián…. han muerto

No puedo deducir: todos los hombres son mortales.

Sí desde la hipótesis: todos los hombres son mortales.

Deducir correctamente: Juan, Elena, Segismundo han de morir.

Basta contrastarla.

La tarea del científico consiste en elaborar teorías y contrastarlas. Distingue dos tipos de situaciones que llama contextos: el contexto del descubrimiento y el de la justificación.

El Contexto del Descubrimiento es creativo y personal, interviene el azar, no es un proceso lógico.

El Contexto de Justificación consiste en la comprobación de una teoría mediante la deducción de conclusiones y el contraste con la experiencia. Hay cuatro procedimientos para llevar a cabo la contrastación de una teoría:

1º La comparación lógica de las conclusiones unas con otras. Con ello se somete a contraste la coherencia interna del sistema.

2º El estudio de la forma lógica de una teoría, con objeto de determinar su carácter: si es una teoría empírica-científica, o si, por ejemplo, es tautológica.

3º La comparación con otras teorías, que tiene por principal mira la de averiguar si la teoría examinada constituiría un adelanto científico en caso de que sobreviviera a las diferentes contrastaciones a que la sometamos.

4º La contrastación por medio de la aplicación empírica de las conclusiones que pueden deducirse de ella»

Para aplicar estos procedimientos son muy importantes los experimentos relevantes que son aquellos que sólo pueden deducirse de nuestra teoría y de ninguna otra. Mejor si son contradictorios con otras explicaciones ajenas a ella.

Finalmente formula el principio de falsación:

«Si las conclusiones singulares resultan ser aceptables, o verificadas, la teoría a que nos referimos ha pasado con éxito las contrastaciones (por esta vez); no hemos encontrado razones para desecharla. Pero si la decisión es negativa, o sea, si las conclusiones han sido falsadas, esta falsación revela que la teoría de la que se han deducido lógicamente también es falsa. Una decisión positiva puede apoyar a la teoría examinada sólo temporalmente, pues otras decisiones negativas subsiguientes pueden siempre derrocarla.»

La ciencia nunca afirma nada radicalmente. Tan sólo nos confirma que tenemos buenas razones para creer tal o cual cosa.

La experiencia es el criterio de demarcación que permite distinguir no sólo qué teorías son científicas, sino también cuáles se refieren a algo real y cuáles son meras especulaciones vacías de contenido.

Los requisitos de una buena teoría son tres:

«1º Ha de ser sintética, de suerte que pueda representar un mundo no contradictorio, posible;

2º Debe satisfacer el criterio de demarcación, es decir, no será metafísico, sino representará un mundo de experiencia posible;

3º Es menester que sea un sistema que se distinga -de alguna manera- de otros sistemas semejantes por ser el que representa nuestro mundo de experiencia.»

La experiencia sirve para dotar de contenido a la teoría, para medir su fiabilidad y para delimitar su ámbito.Sustituyendo unas hipótesis por otras cada vez más satisfactorias. Se trata de una visión plácida, de una tarea lenta y paciente, que progresa despacio, pero inexorablemente.

5.3. Paradigmas y revoluciones científicas.

T.S. Kuhn cuestiona la idea de progreso continuado de la ciencia y destaca el papel que, dentro de las comunidades científicas, juegan los grandes supuestos a los que llama paradigmas:

«Realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica.»

Sus características son: se trata de macroteorías amplias y sugerentes, incompletas en sus detalles y que permiten un fecundo trabajo dentro de sus límites. Se mantienen en vigor durante mucho tiempo y tienen elementos discordantes, detalles que no pueden explicarse o que incluso los contradicen. Se subsanan estas anomalías con teorías auxiliares, hipótesis ad hoc, formuladas para explicar una excepción determinada

Ej. Teoría astronómica de Ptolomeo.

Estos paradigmas pueden entrar en crisis cuando las hipótesis auxiliares son más voluminosas que la propia teoría y las excepciones más numerosas que los fenómenos explicados. En este momento varias teorías entran en competencia hasta que una de ellas se convierte en el nuevo paradigma.

Según Kuhn la Historia de la ciencia no se puede definir como un proceso acumulativo, sino una sucesión de revoluciones científicas, cada una de las cuales anula y hasta contradice lo postulado en el período anterior. Sólo se habla de progreso en los momentos en que trabajan bajo un paradigma (ciencia normal).

La ciencia normal son momentos conservadores por su empeño en aferrarse a su paradigma, a sus supuestos básicos.

En la revolución científica las grietas son cada vez más profundas en el paradigma y se extienden hasta multiplicar las anomalías, hasta que la práctica científica habitual no pueda ya absorberlas y se produce la crisis. Se inician las investigaciones extraordinarias que conducen por fin a la profesión aun nuevo conjunto de compromisos, una base nueva para la práctica de la ciencia.

El paradigma no sólo ofrece una nueva imagen de la ciencia, sino una reconstrucción del mundo: decide qué es lo que existe y lo que no existe en el universo, qué es observable y qué no lo es: que es un hecho. Hechos y teorías no son fácilmente separables, porque la ciencia es una interpretación del mundo.

Una teoría se convierte en paradigma si es amplia, abarca y explica un número elevado de hechos, si es innovadora y si posee un atractivo suficientemente poderoso para atraerse a la mayor parte de los científicos de modo duradero.

Los paradigmas suponen un cambio radical, pero no un progreso. Ya que progreso indica comparación. Las diferencias entre paradigmas sucesivos son tan profundas e irreconciliables que no los podemos comparar. Cada uno define de nuevo la ciencia, los términos y el mundo. Ni siquiera comparten un lenguaje.

«La recepción de un nuevo paradigma frecuentemente hace necesaria una redefinición de la ciencia correspondiente. Algunos problemas antiguos pueden relegarse a otra ciencia, o ser declarados absolutamente no científicos. Otros que anteriormente eran triviales o no existían siquiera, pueden convertirse, con un nuevo paradigma, en los arquetipos mismos de la realización científica de importancia.

Y al cambiar los problemas también lo hacen las normas que distinguen una solución científica real de una simple especulación metafísica, de un juego de palabras o de un juego matemático. La tradición científica, normal que surge de una revolución científica es no sólo incompatible, sino también a menudo realmente incomparable con la que existía con anterioridad.»

La ciencia es una sucesión de períodos incomunicables entre sí y totalmente cerrados y distintos. La tolerancia sólo se da en períodos de crisis y revolución.

5.4. Los programas y tradiciones de investigación científica.

Imre Lakatosdestaca que el criterio de demarcación positivista supone que una teoría no es científica cuando excluye la posibilidad de su refutación y niega la existencia de la serie de experiencias que podían derribarla. Pero una teoría científica compleja no prohíbe ningún hecho, porque ningún hecho podría refutarla; está amparada por una red de hipótesis auxiliares tan espesa que puede responder arguyendo tantas condiciones especiales, que, de hecho, «la irrefutabilidad se convierte en un distintivo de la ciencia.»

Ej. «Todos los gatos tienen los ojos verdes».

Gato ojos azules.

Excepción: malformación

La refutación Popperiana, tiene dos supuestos falsos:

Existe una frontera natural, fácilmente perceptible, entre las proposiciones teóricas y las fácticas. Pero según Lakatos «No hay ni puede haber sensaciones no impregnadas de expectativas». Toda observación supone una interpretación de lo observado y está teñida de prejuicios teóricos: vemos lo que queremos ver, encontramos lo que buscamos.

Una proposición puede ser confirmada o refutada por los hechos.

Aduce la Regla lógica que dice no se pueden mezclar lenguajes distintos. Nada extralingüístico puede introducirse en el lenguaje. Una afirmación sólo podría demostrarse empleando para ello cuantos argumentos se nos ocurran, pero nunca probarse mediante hechos, precisamente porque ningún hecho puede pertenecer a la esfera del lenguaje.

El falsacionismo se aplica a hipótesis sueltas. La ciencia no funciona así, sino por grandes bloques: Los programas de investigación.

Los programas constan de un núcleo central de verdades consideradas fundamentales. «Este núcleo está tenazmente protegido contra las refutaciones mediante un gran cinturón de hipótesis auxiliares…Tiene también una poderosa heurística, una poderosa maquinaria para la solución de problemas que, con la ayuda de técnicas matemáticas sofisticadas, asimila las anomalías y las convierte en evidencia positiva».

Toda situación crítica se transfiere al cinturón protector y no puede afectar al núcleo. Los programas se constituyen en torno al núcleo rodeando ese centro de verdades primordiales de una serie de hipótesis, sugerencias y líneas de trabajo. Los límites del programa se amplían cada vez más con la heurística positiva, sugerencias nuevas y aplicaciones diferentes.

La ciencia no funciona con un solo programa de investigación, sino que tantea con varios a la vez. Se decide por uno o por otro según el mayor grado de progreso que impliquen.

Se produce la revolución científica si tenemos dos programas de investigación rivales, y uno de ellos progresa, mientras que el otro degenera. El progreso consiste en explicar lo mismo que el rival y superarlo en amplitud y posibilidades.

El pluralismo, la competencia de programas, es una garantía contra el dogmatismo y el anquilosamiento. La ciencia es predominantemente inductiva, se trabaja mediante un tanteo de pruebas y refutaciones, de observaciones y ensayos, de proyectos que sólo se convertirán en teorías en virtud de su utilidad.

No hay separación contexto del descubrimiento y de justificación, entre invención y prueba, cuando se inventa se piensa al mismo tiempo la prueba y de las pruebas salen nuevas sugerencias.

El formalismo ritualiza la ciencia y disfraza su realidad bajo una estructura deductiva que se ha construido posteriormente.

5.5. El anarquismo epistemológico.

Paul Feyerabenden sus obras defiende el pluralismo teórico como rasgo esencial de todo conocimiento científico.

Nadie abandona una teoría, por contraria que parezca a los hechos, si no tiene, para sustituirla, una explicación mejor. Sólo puede ser defendida o desechada mediante la confrontación con otras teorías.

Como ejemplo dice que la teoría cuántica, son construcciones teóricas extremadamente elaboradas y complejas, explicaciones totalmente alejadas del plano de los hechos. Los científicos se deciden a adoptar una u otra por una elección mayoritaria dentro de un extenso grupo de opinantes. En la elección influyen factores muy diversos: económicos, políticos, prácticos y estéticos. No hay un criterio objetivo de elección (Lakatos).

La comunidad científica oculta los errores y rodea sus actividades de secreto y ceremonial.

La filosofía de la Ciencia sigue reflexionando sobre la dinámica de esta. Hoy se destacan los estudios de Bruno Latour que como antropólogo observa el trabajo en un laboratorio con el fin de describir cómo se construyen los hechos científicos. En sus obras se destaca cómo la misma investigación en el laboratorio está relacionada con la sociedad en que se desarrolla. No se puede separar la ciencia de la sociedad. Ni la historia de la ciencia de la historia de las sociedades en que se produce.

TEMA 4. Edad Contemporánea

4.1 El siglo XIX

1. La teoría heroica de la invención.

2. La teoría de la evolución.

4.2 El siglo XX


1. El microcosmos: el universo cuántico

    1. La existencia del éter

    2. La naturaleza de la luz

    3. La estructura de la materia. La mecánica cuántica.

  1. El macrocosmos.

    1. La teoría del caos y Gaia

    2. El universo físico

    3. Universos virtuales, simulados

    4. Implicaciones filosóficas. Determinismo y libertad

Las nuevas instituciones de investigación: los laboratorios.

4.1 El siglo XIX

Como dice Ortega y Gasset, en el S. XIX se inicia el tercer estadio de la técnica: el de las máquinas. Dejamos atrás el mundo del artesano y sus instrumentos.

Ortega afirma que la técnica es la reforma que el hombre impone a la naturaleza de cara a la satisfacción de sus necesidades. Ahora bien, el concepto de necesidad humana abarca tanto lo objetivamente necesario como lo superfluo. Las necesidades son reinterpretadas. Así el fuego puede servir tanto para calentarse, como para embriagarse aspirándolo en recintos cerrados.Los inventos unos surgen como respuesta a necesidades de la sociedad, pero otros son los inventos los que crean las necesidades.

DIAMOND: “Teoría heroica de la invención”

En la 1ª Revolución industrial las máquinas que se utilizan en la industria, podríamos pensar aparecen cuando la sociedad tiene una necesidad es lo que llama J. Diamond «La necesidad es la madre de la invención». Se sugieren como ejemplos:

-En 1769 James Watt inventa la máquina de vapor para resolver el problema del bombeo de agua en las minas de carbón.

-En 1794 Eli Whitney inventa la desmotadora de algodón.

-En 1942 El Proyecto Manhattan tiene como objetivo la fabricación de una bomba atómica para ganar la guerra.

Pero también se puede mostrar lo contrario,es decir, descubierta una nueva máquina se le buscan utilidades. Como ejemplos propone:

-En 1877 Thomas Edison inventa el fonógrafo con una finalidad. Más tarde se construyen las gramolas tragaperras

-En 1866 Nikolaus Otto construye el motor de combustión interna pero apenas es utilizado. Más tarde, en 1885 Gottfried Daimler presenta la primera motocicleta y en 1896 aparece el primer vehículo de cuatro ruedas.

Esto lleva a J. Diamond a criticar la que llama «teoría heroica de la invención» según la cual hay un sólo inventor para un descubrimiento o máquina. Su tesis es que la tecnología se desarrolla por acumulación, en lugar de por actos heroicos aislados, y que encuentra la mayoría de sus aplicaciones después de haber sido inventada, en vez de haber sido inventada para una necesidad prevista.

Como ejemplos que la apoyan señala:

Watt mejora a Newcomen: condensador separado de vapor y un cilindro de doble acción): Newcomen, Thomas Savery (1698), Denis Papin (1680 diseñada no construida) y Christian Huygens.

Si no es siempre por las necesidades. ¿Cómo se llega a ellos? Johnson, Stevenseñala siete pautas de la innovación: 1. Lo posible adyacente, 2. La red líquida, 3. Las corazonadas lentas, 4. La serendipia (sueños), 5.El error, 6. La exaptación y 7. Las plataformas.

La exaptación y lo posible adyacente

A Joseph Marie Jacquard en 1801 se le atribuye la invención del Telar mecánico. Desarrolló las primeras tarjetas perforadas para crear dibujos y patrones de seda en la tela, permitiendo elaborar complejos diseños. Se basó en los inventos de Basile Bouchon y Jean Baptiste Falcon, que consistían en el uso de tarjetas perforadas para controlar los telares textiles franceses. Cada tarjeta perforada correspondía a una línea del diseño.

Steven Johnson, Las buenas ideas lo propone como ejemplo de exaptación: tomar una tecnología de un campo y aplicarla a otro para resolver un problema sin relación alguna con el campo original. Charles Babbage tomó la idea del uso de las tarjetas perforadas para programar una máquina analítica .

La máquina analítica de Babbage

Charles Babbage diseñó y participó en la creación de la máquina diferencial. También diseñó, pero nunca construyó, la máquina analítica para ejecutar programas de tabulación o computación.

La máquina diferencial trataba de tabular polinomios usando un método numérico llamado el método de las diferencias. Babbage comenzó la construcción de su máquina, pero ésta nunca fue terminada. Dos cosas fueron mal: 1. La fricción y engranajes internos disponibles provocaban vibraciones, un problema constante. 2. Babbage cambiaba incesantemente el diseño de la máquina.

El diseño se basaba en el telar de Joseph Marie Jacquard y sus tarjetas perforadas. Se considera que la máquina analítica de Babbage fue la primera computadora del mundo.

Alan Mathison Turing entre sus aportaciones al mundo de la tecnología tenemos la máquina de Turing, una máquina matemática. Uno de sus logros más extraordinarios fue sin duda alguna su labor como criptoanalista. Ayudando a descifrar los textos nazis que preparaban Arthur Scherbius y su amigo Richard Ritter fundadores de una empresa de ingeniería y creadores de la máquina ‘Enigma’ con los que se cifraban los mensajes del ejército alemán. Esta máquina estaba formada por un teclado, tres rotores, un reflector y un tablero donde quedaba iluminada la letra cifrada. La máquina de Turing. Capaz de resolver cualquier problema matemático. Esta máquina lógica consiste en una cinta infinita con casillas, un dispositivo que la recorre y un cabezal que lee un símbolo encima de la cinta.

Darwin: la teoría de la evolución

El fijismoes la teoría que afirma que las especies actuales son las que han existido siempre y no presentan novedades ni cambios. Era la teoría vigente desde Aristóteles y durante la edad antigua.

Pero durante la Edad Media se impuso una modificación del fijismo el creacianismo. Según esta teoría es Dios quien ha creado el cosmos y ha puesto a la Tierra y al hombre en lugar especial.

Durante los S. XVI y XVII empieza a cuestionarse esta visión del cosmos desde la astronomía. Son las explicaciones de Copérnico, Kepler y Galileo. La Tierra pierde su lugar central. El sol ocupa el centro del cosmos y la tierra se ve desplazada. En el S. XVII James Ussher calculó el día de la creación: 23 de Octubre del año 4004 a. C. , pero pronto empezaron a encontrarse evidencias en contra.

James Hutton y Charles Lyell ,descubrieron fósiles en diferentes niveles o estratos que databan de épocas distintas y mucho más remotas de lo que afirmaban algunos intérpretes de la Biblia. Surgieron entonces las primeras dudas acerca de la verosimilitud del creacionismo.

George Cuvier defendió, con la nueva teoría catastrofista, que el Diluvio Universal era una entre las muchas catástrofes que había sufrido la Tierra. Con ello salió en defensa del creacionismo.

Pero fueron Lamark, Darmin y Wallace los que acabaron con la credibilidad del creacionismo como posición científica. Presentaron la teoría de la evolución. Las especies cambian desde un origen común. Difieren en la explicación de esos cambios.

Lamarck expuso en su obra Filosofía Zoológica lo que se conoce como lamarkismo. Sostiene la idea de que las transformaciones de los individuos se debían a su esfuerzo por adaptarse al medio. Los cambios son heredados por sus descendientes.(Las jirafas que han tenido que estirar su cuello)

Darwin en su libro El origen de las especies, que publicó 20 años después de su viaje en el Beagle y que vio la luz solo por la próxima aparición del libro de Wallace, explicó que la gran variedad individual es fruto de la lucha por la supervivencia.Sólo aquellos que poseen cambios que les permiten adaptarse mejor al medio sobreviven es lo que se llama la selección natural.

Las evidencias a favor de esta teoría las aportaba la paleontología con sus fósiles (especies estinguidas). Pero en aquella época tenía numerosas críticas como por qué no hay especies intermedias o cuál es el proceso de una especie a otra. La anatomía mostraba semejanzas ,la embriología mostraba cambios y los órganos vestigiales eran otra prueba. Finalmente la Biología molecular nos muestra el ADN compartido.

Tampoco Darwin podía explicar la variabilidad debida al azar. Con el descubrimiento de la genética, cuando Hugo de Vries publicita las leyes de la herencia descubiertas por Gregor Mendel, se empieza a formular lo que será la teoría sintética de la evolución. Según la teoría sintética las modificaciones que se producen en los individuos son mutaciones en su ADN, en su genotipo. Las mutaciones favorables hacen a los individuos más aptos. Pero estos individuos tienen que reproducirse para que esas variaciones permanezcan.

4.2. El siglo xx

El éter se hará innecesario para la explicación de la electricidad cuando se empiece a descubrir el mundo de los átomos, es lo que llamaremos el microcosmos.

En el siglo XX la naturaleza cada vez cobrará más importancia y veremos como se vuelve a la concepción griega de la Tierra y el cosmos como un organismo vivo. El trato que reciba la Tierra incide en el ser humano que es una más de las especies que en ella vive. Es lo que estudiaremos con el nombre de macrocosmos.

  1. El microcosmos: el universo cuántico

El optimismo, que hemos visto incrementó cuando Maxwell con su teoría de campos unificó la electricidad, el magnetismo y la óptica.

Pero esta unificación se vería cuestionada por tres investigaciones:

1º La existencia del éter.

2º La naturaleza de la luz.

3º La estructura de la materia.

    1. La existencia del éter

Maxwell precisaba un medio en el que se propagaran las interacciones entre cargas, por lo que postuló la existencia del “éter”. Para mostrar la existencia A. Michelson propuso un experimento,el experimento fallido más famoso de la historia. En él proponía que las ondas de la luz se retrasarían al tener que vencer la resistencia del éter; esto no ocurrió y tuvo que rechazar la existencia del ‘eter’. Lorenz explicó los resultados diciendo que las longitudes y el tiempo sufrían modificaciones según quien fuese el observador que las midiese. Son las llamadas “transformaciones de Lorenz”. De este modo se demostraba la irrelevancia del ‘eter’. Einstein en 1905 dedujo las ecuaciones de transformación de Lorenz sin necesitar el “éter lumífero” ni el “espacio absoluto estacionario”. Formuló la teoría de la relatividad especial que parte de dos postulados:

1.- El principio de relatividad que dice que las leyes de la física son las mismas en todos los sistemas de referencia no acelerados.

2.- La velocidad de la luz es la misma en todos los sistemas inerciales independientemente del estado de movimiento del sistema, es decir, la velocidad de la luz en el vacío es una constante universal.

Nada se puede mover a una velocidad superior a la de la luz. La velocidad de la luz no se puede acelerar ni ralentizar, pero para cada objeto que viaja a distinta velocidad con respecto a otro, posee un espacio y un tiempo propios es el llamado principio de relatividad del movimiento, es decir, el espacio y el tiempo son relativos de cada objeto según la velocidad que posean (paradoja de los gemelos)

    1. La naturaleza de la luz

Einstein afirmaba que la luz estaba formada por partículas independientes (fotones). Esto se podía observar en el efecto fotoeléctrico por el que recibirá el premio Nobel en 1922. En otro artículo de 1905 formuló la ecuación que ha dado origen a la energía nuclear o atómica: E=mc2. Con esta fórmula se explica la aparente energía de los fenómenos radioeléctricos y la transformación de materia en energía y viceversa

Finalmente será Louis de Broglie entre 1923-24 quien mostrará la dualidad onda-partícula en el mundo cuántico, el comportamiento corpuscular y ondulatorio en las partículas subatómicas, utilizando la función estadística de Born. Esto llevará a descubrir la composición de la materia.

    1. La estructura de la materia. La mecánica cuántica.

John Dalton utilizando una báscula, dio una nueva definición de elemento químico: “materias que poseen un valor atómico propio, de átomos igual de grandes e igual de pesados”. Una reacción química sería una reordenación de los átomos.

En 1897 se descubre el electrón y Joseph Thomson propone en 1904 el modelo del pastel de pasas que no tuvo mucho éxito pero que consiguió reunir a Ernst Rutherfort y Niels Bohr

E. Rutherford que estudiaba el fenómeno de la radioactividad y las partículas alfa y Beta que emiten estas sustancias, propuso para explicar el rebote de partículas alfa sobre placas de metal (experimento de la lámina de oro) el modelo de un núcleo central con carga positiva o negativa rodeado por una esfera de electrones (minisistema planetario regido por fuerzas electromagnéticas). N. Bohr (1911) incluyó el cuanto de energía de Plank-Einstein. También explicó los saltos de órbita de los electrones que se podían apreciar por las radiaciones de diferentes frecuencias.

Arnold Sommerfeld modificó el modelo cambiando a órbitas elípticas cuánticas. De este modo se pudo ordenar y explicar la tabla de los elementos químicos

El principio de incertidumbre de Heisenberg.

Heisenberg afirma que la posición y la velocidad de una partícula no puede conocerse simultáneamente con precisión. Además cuanto más precisa sea la medida de su posición, más imprecisa será la medida de la velocidad y al revés. El universo a partir de este momento no tendrá una forma determinada sino probable. Las esperanzas de Laplace se vieron truncadas por los descubrimientos de Heisenberg.

Estas afirmaciones de Heisenberg llevaron a la interpretación de Conpenhague (N. Bohr, W. Heisenberg 1927) de la mecánica cuántica, según la cual, un sistema cuántico, como el de un electrón, existe bajo una nube de probabilidad hasta que se hace una observación. Es decir, el observador crea la realidad observada ante todas las posibilidades que existían antes de la observación.

Schrödinger y Einstein se opusieron a esta interpretación. Es famosa la frase de Einstein: “El, no juega a los dados” .Schrödinger propuso la paradoja del Gato “El gato de Schrödinger” estaba vivo y muerto al mismo tiempo.

Las partículas subatómicas

En 1928 A. Dirac propuso una ecuación con la que preveía la existencia de nuevas partículas, los positrones. Era el primer ejemplo de antimateria (el encuentro de materia y antimateria produce energía). En 1932 Carl Anderson los descubre experimentalmente con la Cámara de niebla. Poco después se descubre el neutrón. Se inicia el estudio de la radiactividad artificial con el matrimonio Curie . Se empieza a hacer realidad la ecuación de Einstein: E=mc2

Con el inicio de la 2ª Guerra Mundial muchos científicos formarán parte del “Proyecto Manhattan”

Se inicia entonces la llamada “Big Science” con la construcción de Ciclotrones o aceleradores de partículas descubriéndose los mesones, piones, muones y los quarks. En España la física de partículas se estudia en el acelerador Alba en el Vallés (Sabadell).

En Suiza en el que se ha fotografíado el Bosón de Higgs. Los últimos Nobel consiguen detener las partículas subatómicas para observarlas. Las partículas cuánticas pueden encontrarse en dos estados diferentes al mismo tiempo. Se inicia el teletransporte cuántico que consiste en transmitir un texto cuántico de unas partículas, fotones, entre dos puntos situados a 143 Km en Canarias. Un fotón conoce el estado de otro gracias a un fenómeno denominado entrelazamiento, ese conocimiento es la información. Cada vez sabemos más de este microcosmos cuántico, pero podemos decir que en él el principio de causalidad se ha roto. Dada una causa no podemos predecir el efecto. Es más, según el principio de incertidumbre ni siquiera podemos conocer el presente en todos sus detalles. La física se reduce a describir percepciones, no la realidad.

Tenemos que añadir que según la teoría especial de la relatividad de Einstein el espacio y el tiempo son relativos al observador y al sistema inercial en que se encuentren.

Todos estos descubrimientos han dado lugar a lo que se llama la 3ª revolución industrial: la de la microinformática y la robótica.

  1. El macrocosmos.

Tras el optimismo en el siglo XX reaparece la noción de caos.

Primero en el microcosmos y después en el macrocosmos. Considerando como microcosmos el campo de la física subatómica, en este campo, por un lado, al estudiar la estructura de la materia hemos tenido que utilizar los planteamiento estadísticos de la mecánica cuántica que llevan a la noción de azar (probabilidad) y la dificultad de predecir

Segundo en el macrocosmos, en las teorías sobre el universo, se postula la llamada teoría del caos que vamos a estudiar a continuación y la posibilidad de universos múltiples, multiversos, virtuales frente al universo físico.

    1. La teoría del caos

En campos que son muy sensibles a los cambios en las condiciones iniciales, parece predominar el caos, que parece aleatorio e impredecible. Sin algunos comportamientos se ajustan a estrictas reglas matemáticas derivadas de ecuaciones que pueden formularse y estudiarse.

La teoría del caos surgió hacia el año 1900 con el estudio de las complejas trayectorias de los cuerpos en movimiento llevado a cabo por los matemáticos Hadamard y Poincaré. Hacia 1960 el desarrollo de los ordenadores permitió que se iniciaran las simulaciones. Edward Lorenz, investigador de meteorología en 1963 publicó un artículo donde estudiaba sistemas no lineales. Utilizó un sistema de ecuaciones para representar la convección atmosférica, desde este momento los estudios matemáticos se observaban empíricamente. Para explicarlos puso como ejemplo “el efecto mariposa” (el aleteo de una mariposa en un lugar…). Descubría una de las consecuencias de la teoría del caos: a pesar de la simplicidad de las fórmulas, cambios minúsculos en las condiciones iniciales, desembocan en resultados muy distintos impredecibles.

También en la década de 1960 James Lovelock comparó la tierra, a la que llamó Gaia (1979), con un organismo vivo y autoregulado. Según la hipótesis Gaia en la Tierra se dan una serie de interacciones complejas entre la vida y su entorno físico constituido por la atmósfera, los océanos, los casquetes polares y las rocas. Estas interacciones actúan en concierto para que la Tierra permanezca en un estado moderadamente estable que le permite seguir siendo el soporte de la vida.

El universo físico

A nivel del macrocosmos físico se plantean dos posibilidades una estática, la de Einstein y otra dinámica la teoría del ‘Big Bang’

El universo de Einstein: geométrico, estático y curvo.

En 1911 Einstein publica su teoría de la interacción gravitacional según el cual a distancias pequeñas un sistema de referencia acelerado es equivalente a un campo gravitacional. En él la masa inercial es igual a la masa gravitacional. En 1915 propone su teoría de la relatividad general. El espacio deja de ser un marco inmutable ajeno a su contenido energético-material. Hay un espacio-tiempo curvo de cuatro dimensiones. Para representarlo utiliza la geometría no-euclideana de Rieman. Se trata de un espacio no compatible con los requisitos cuánticos y que se resiste a las pruebas experimentales. Desde 1919 Einstein intentó conseguir una teoría del campo unificado que consiste en encontrar un marco geométrico, un espacio-tiempo común, para las dos interacciones conocidas la electromagnética y la gravitacional.

En 1948 Fred Hoyle y Herman Bondi proponern un universo estable que siempre ha tenido y tendrá la misma forma, que no tiene ni principio ni fin, pero en él hay que explicar la creación continua de materia.

El universo en expansión: La teoría del ‘Big Bang’

Desde que en 1908 Henrietta Leavitt con las Cefeidas y sus variaciones en la emisión de luz consigue medir las distancias. La Via Láctea se hace mayor de lo que se pensaba. Su diámetro mide 300.000 años-luz. Nuestra frontera, la Galaxia, y el universo se ensanchan.

Milton Humason comprueba que cuanto más alejadas se encontraban las galaxias, más rápidamente se alejaban. Había un desplazamiento hacia el extremo rojo del espectro, no hacia el azul. Lamaitre propone la existencia de un átomo primitivo en el que toda la materia estaba concentrada y una gran explosión el Big Bang. Arnold Penzias y Robert Wilson observan el fondo de radiación de microondas que suponen producto de esta explosión y James Peebles y Robert Dickens comprueban que la temperatura de la radiación se enfría.

Universos virtuales, simulados

Como conclusión de la mecánica cuántica y el principio de incertidumbre de Schrödinger se conciben universos múltiples.

La teoría de las supercuerdas predice un universo de once o doce dimensiones (las tres dimensiones espaciales, una temporal y seis o siete dimensiones espaciales más). En este hiperespacio las leyes de la naturaleza se vuelven más sencillas. En la teoría de cuerdas, algunas de las partículas más elementales, pueden representarse mediante unas entidades inconcebiblemente pequeñas, y unidimensionales que se denominan cuerdas. Se postula que una de estas cuerdas serían los gravitones que transmiten la fuerza de la gravedad.

Con el uso creciente de ordenadores el astrónomo Martin Rees sugiere la posibilidad de universos simulados por ordenadores donde se puede probar el desarrollo de estos universos de múltiples dimensiones. Como hemos visto estas simulaciones son muy útiles en la teoría de caos.

2.4. Implicaciones filosóficas. Determinismo y libertad

Los descubrimientos del siglo XX a nivel del microcosmos han supuesto grandes cambios en la vida de las sociedades sobre la Tierra. La fusión del átomo ha proporcionado grandes cantidades de energía, y la posibilidad de aniquilar toda la vida sobre la Tierra. Los estudios de las partículas han posibilitado el gran desarrollo de la electrónica ,desarrollos de aplicaciones en medicina, etc.. Esto ha llevado a afirmar a investigadores como Mumford que en la sociedad se puede distinguir una megaciencia y una politécnica. Con la megaciencia, el gran sistema tecnológico, autoritario y poderoso, un ejemplo es la energía nuclear que es controlada por un sistema de expertos y alejada de cualquier injerencia social y la politecnia con los medios de comunicación se difumina la responsabilidad. Nadie se hace responsable políticamente de las desgracias que puede ocasionar una innovación tecnológica. La ciencia y la técnica se han convertido en un enorme entramado en que las piezas aisladas no pueden considerarse como moralmente responsables del todo.

Sin embargo tienden a resaltar la responsabilidad de los humanos en la conservación del planeta e incluso de la propia especie.

Filósofos como Bergson, J. Ortega y Gasset, Sartre enfatizan la libertad humana como característica distintiva del ser humano que le hace responsable de su vida.

El filósofo Hans Jonas, en su libro El principio de responsabilidad, propone reformular el imperativo categórico kantiano en términos biológicos: “Obra de tal modo que la vida del futuro sea como la de hoy”.

Otros como Jurgen Habermas proponen soluciones dialógicas en las que se tomen las decisiones entre todos. John Rawls define los principios de justicia “como aquellos que aceptarían en tanto que seres iguales, en tanto que personas racionales preocupadas por promover sus intereses, siempre y cuando supieran que ninguno de ellos estaba en ventaja o desventaja por virtud de contingencias sociales y culturales”.

  1. Las nuevas instituciones científicas

A lo largo del S. XX la investigación se ha hecho más compleja, no sólo en cuanto a la necesidad de grandes instrumentos que necesitan de una gran financiación económica, sino la necesidad de colaboración entre investigadores debido a la gran especialización.

Como ejemplo, uno de los más conocidos es el MIT Massachusetts Institute of Technology: Fundado en 1861 Creció como resultado de la II Guerra Mundial. Uno de sus descubrimientos es el radar. En él han trabajado Richard Feynman, premio Nobel en 1965 y Murray Gell-Mann, premio Nobel en 1969.

EN UNIVERSIDADES

Instituto Ragon de inmunología

100 mill


Instituto Koch para el cánceer

150 mill


Centro Stanley Investigación Psiquiátrica

165 mill


Fundación de Fibrosis Quística



Se han constituido grandes laboratorios de investigación en las universidades, pero también fuera de ellas como grandes centros de investigación financiados ya no sólo por un estado, sino por consorcios internacionales.

Como ejemplo el CERN Laboratorio Europeo de Física de Partículas:Creado en 1954 en la frontera franco-suiza cerca de Ginebra. Financiado por un consorcio de 20 Estados miembros

Desde mitad del siglo también se han iniciado grandes proyectos con financiación privada con vistas a la obtención de beneficios o por mera filantropía. Un ejemplo del primer caso es el proyecto de la secuenciación del genoma humano por parte de la empresa privada CELERA. Ejemplo de filantropía son:

GENOMA

ESTATAL

Instituto de Investigaciones del Genoma Humano

2000-2003


PRIVADA

CELERA


FILANTROPIA EN INSTITUTOS PUBLICOS DE EEUU

PAUL G. ALLEN (Microsoft)

Instituto de Ciencias del Cerebro

500 mill

FRED KAVLI (Tecno e Inmobiliario)

3 Institutos Fundación Kavli. Estudia el cerebro

100 mill

250 mill

MICHAEL R. BLOOMBERG (ex alcalde de N. York)

Bloomberg


JAMES SIMONS (matemático)



DAVID H. KOCH (petróleo



BILL GATES (Microsoft)

MELINDA

WARREN E. BUFFET

Campaña Giving Pledge (Promesa de Dar)

10.000 mill

ERIC E. SCHMIDT (Google)

Instituto Oceánico Schmidt en Palo Alto California

100 mill

LAWRENCE J. ELLISON (Oracle)

Fundación Médica Ellison Joshua Lederberg (biólogo), 3 Nobel

500 mill


FILANTROPIA EN LA EMPRESA PRIVADA

DMITRY ITSKOV

Vida humana


ELI BROAD (Inmobiliaria y seguros)

MIT Bases genéticas de las enfermedades

700 mill

GORDON MOORE (Intel)

Física, biología, medio ambiente, astronomía

850 mill

NATHAN P. MYHRVOLD (Microsoft)

Fósiles de Tyrannosaurus


RAY DALIO (fondo de inversión)

Calamar gigante


LAMAR SMITH (ebay, google, facebook)

Telescopio meteoritos


SOL PRICE (grandes almacenes)

Secuenciador de ADN automático LEROY HOOD


ANOUSHEH ANSARI

Primera nave privada al espacio

10 mill

SIMONS

Acelerador de partículas de Long Island

13 mill


Tanto unos como otros han suscitado suspicacias y modificado la concepción de la ciencia. A su favor se dice que contribuyen a acelerar los avances científicos, ayudan a presentar positivamente la ciencia y permiten que determinados investigadores asciendan en su prestigio. En contra se dice que se abandona la investigación básica ya que apuestan por estudios híbridos que tranquilizan sus conciencias como proyectos medioambientales, la exploración espacial y la salvación de vidas humanas. La revista Nature añade queesto puede sesgar las investigaciones ya que las dirige hacia campos menos relevantes que se han puesto de moda y disminuye la diversidad de oportunidades para los investigadores.


TEMA 5 Dinámica de la ciencia

5.1. La concepción neopositivista.

5.2. El demarcacionismo falsacionista.

5.3. Paradigmas y revoluciones científicas.

5.4. Programas y tradiciones de investigación científica.

5.5. El anarquismo epistemológico.

5.1. La concepción neopositivista.

Como reacción a las filosofías de tipo idealista (Hegel) surge la filosofía positivista, cuyo máximo representante es Augusto Comte. El olvido de la experiencia en el sistema hegeliano provoca su rechazo por parte de los positivistas. Comte defendía un sistema filosófico que se atuviera a los hechos que pueden ser captados por los sentidos y ser sometidos a comprobación empírica. Frente a la concepción dialéctica hegeliana (tesis, antítesis y síntesis) propuso tres estadios en la evolución del pensamiento: teológico, metafísico y positivo. Según él la historia de las ciencias es paralela a la de los estadios sociales

En el estadio teológico, se pretende dar respuestas absolutas a todos los fenómenos que resultan extraños, tendiendo a hacer que todo se parezca o asimile al sujeto humano. Busca las explicaciones en las razones oscuras y sobrenaturales. Domina en este estadio la imaginación.

En el metafísico, se busca el por qué y la explicación de la naturaleza en las cosas mismas a través de entidades abstractas, inmutables y necesarias. Domina el razonamiento.

En el positivo, es la última etapa del desarrollo del espíritu humano. Se busca el cómo aparecen y se comportan los fenómenos. Solo interesa la descripción fenoménica y la regularidad de su obrar. En este estadio se subordina la imaginación a la observación. Este estadio se rige por el criterio de que toda proposición que no pueda reducirse a un enunciado de un hecho concreto no tiene significado, es un sin sentido. La ciencia se construye con el conocimiento de lo positivo (los hechos, lo concreto, lo dado por la experiencia). Lo positivo a nivel práctico será lo útil, eficaz y constructivo.

El positivismo lógico

En las primeras décadas del S. XX, un grupo de filósofos y científicos que se reúnen en la Universidad de Viena seguirán el pensamiento de Hume y Comte según los cuales los conceptos metafísicos falsean el conocimiento y fundarán el denominado Círculo de Viena

El acto fundacional del Círculo de V tuvo lugar con la publicación del manifiesto que preparó Rudolf Carnap en 1929 titulado La concepción científica del mundo. En él se recogían las actividades e iniciativas del grupo.

Aspira a construir una teoría de la ciencia, mediante un análisis del significado y del método. Solamente son válidas y están dotadas de significado aquellas ciencias que:

-Son tautológicas (su verdad o falsedad es un problema puramente formal, que se resuelve absolutamente a priori)

-Son empíricas (proponen hipótesis cuya verdad o falsedad puede establecerse mediante la verificación empírica, recurriendo a la experiencia sensible.

Se denomina empirismo por el recurso a la experiencia y lógico por el papel que reconoce a las ciencias formales.

A) En las CIENCIAS FORMALES no es preciso recurrir a nada exterior para saber si una proposición determinada es verdadera o falsa. No hay que experimentar. Basta con aplicar las propias reglas de constitución de la ciencia para saber si es o no correcta. Por eso se llaman a priori, porque se puede conocer su validezantes de recurrir a pruebas prácticas. Válido quiere decir formalmente correcto. La matemática y la lógica no informan de nada, son sistemas cerrados, sin referencia a nada exterior, pero sus esquemas formales son muy útiles como modelos y auxiliares de otros conocimientos.

Una proposición lógica o una operación matemática serán válidas si se ajustan a las normas de esa ciencia. En las ciencias formales no nos referimos nunca al mundo sensible.

234 + 42 = 276 es una igualdad válida. Refleja una operación matemática correctamente realizada.

Una ARGUMENTACIÓN puede ser formalmente válida y su conclusión no ser verdadera.

Ej.:

Si p entonces q Si hay sequía los murciélagos se volverán azules.

P Hay sequía

_____________ _____________________________________

q Los murciélagos se volverán azules.

El razonamiento es correcto, cumple el requisito de validez, pero no es verdadero. Eso no sucede en la realidad y a la vez un razonamiento puede resultar no válido y ser verdadero.

Ej.:

Tengo un cajón lleno de canicas.

Saco siete canicas verdes

_____________________

Todas las canicas son verdes

B) En las CIENCIAS NATURALES la VERDAD es el ajuste entre una proposición y lo que ocurre en el mundo. En las ciencias empíricas decimos que sus proposiciones son verdaderas o falsas, y se les aplica un criterio de verdad.

Según el Principio de verificación sólo puede admitirse aquello que es verificable mediante la observación.

Las CIENCIAS DEL ESPÍRITU: METAFÍSICA, ÉTICA son como conjuntos de proposiciones sin sentido y calificadas como meros absurdos.

Como dice, A.J. Ayer: «Una frase no tiene verdadero significado para una persona dada más que si esta última sabe cómo verificar la proposición que quiere expresar. En otra palabras, esta persona debe saber cuáles son las observaciones que la autorizan a aceptar esta proposición como verdadera o a refutarla como falsa».

Solución de compromiso: para que una proposición tenga sentido basta con que sepamos qué experimento tendríamos que hacer para comprobarla.

El hecho de que una proposición sea verificable o no (verdad-empírica o validez-formal) servirá de criterio, no sólo para establecer si es verdadera, sino para decidir si significa algo o es una simple fantasía sin sentido.

Verificable directamente: si es posible comprobar su verdad mediante la observación simple. Esta verdad puede ser:

-Fuerte: absolutamente verdadera.

-Débil: probable.

-Indirectamente verificable: si cumple dos condiciones.

1ª “Que en conjunción con otras determinadas premisas implique una o más declaraciones directamente verificables, que no sean deducibles de estas otras premisas solas».

2ª Que las otras premisas sean, o analíticas, o directamente verificables.

Así se depurará la ciencia y se la edificará sobre sólidos cimientos.

¿Qué función le queda a la FILOSOFÍA?

El quehacer filosófico consiste en una actividad de análisis. La función del filósofo es analizar los métodos científicos y vigilar para que no se deslice ninguna falacia lógica ni ningún término vacío de sentido.

«El filósofo, como analista, no está directamente interesado en las propiedades físicas de las cosas. Está interesado solamente por la forma en que hablamos de ellas.»

Un filósofo que ejemplifica este quehacer es:

Bertrand Russell en su libro Whitehead Principia Matemathica consiguen derivar la matemática pura de la Lógica. En él dicen que el filósofo debe dedicarse a analizar el modo en que la ciencia nos transmite sus descubrimientos, y en este análisis la lógica formal supone un imprescindible y potente auxiliar.

Su filosofía se llama el Atomismo Lógico. Según él cada proposición puede reducirse a una serie de componentes básicos, que son los objetos últimos a que el lenguaje se puede referir, que se corresponden estructuralmente con las partículas elementales de la lógica.

Los hechos elementales en los que se puede dividir la experiencia reciben el nombre de hechos atómicos y deben ser representados por signos lógicos elementales.

Así sería posible formalizar lógicamente toda la realidad, todo el conjunto de la experiencia posible, y se crearía un verdadero, preciso y adecuado lenguaje científico que excluye por principio el error, la multiplicación de términos para expresar la misma cosa, la confusión y la metafísica. Es un intento de construir un lenguaje artificial apto para la ciencia que plasma otro filósofo:

Segun Wittgenstein la Ciencia parte siempre de la observación directa de los hechos, para llegar más tarde a la elaboración de teorías que den razón de ellos, mediante una progresiva generalización.

Explicación -Verificación

Explicación desde los hechos hasta las hipótesis.

Verificación de las hipótesis a los hechos.

Se irá generalizando, agrupando diversas hipótesis bajo una ley más general, hasta completar la ciencia. Para estos filósofos la ciencia es un edificio compacto formado por generalizaciones cada vez más amplias de las que se derivan leyes, hipótesis y se explican y predicen hechos del mundo. B. Russelldice:

«La ciencia, en su último ideal, consiste en una serie de proposiciones dispuestas en orden jerárquico; refiriéndose las del nivel más bajo en la jerarquía a los hechos particulares, y las del más alto, a alguna ley general que lo gobierna todo en el universo. Los distintos niveles en la jerarquía tienen una doble conexión lógica: una hacia arriba, y la otra hacia abajo. La conexión ascendente procede por inducción; la descendente, por deducción.»

«Para llegar a establecer una ley científica existen tres etapas principales: la primera consiste en observar los hechos significativos; la segunda, en sentar hipótesis que, si son verdaderas, expliquen aquellos hechos; tercera, en deducir de estas hipótesis consecuencias que puedan ser puestas a prueba por la observación. Si las consecuencias son verificadas, se acepta provisionalmente la hipótesis como verdadera, aunque requerirá ordinariamente modificación posterior, como resultado del descubrimiento de hechos ulteriores.»

Admite en la ciencia una carga considerable de elementos teóricos (aunque siempre acabarán, por implicación lógica, en enunciados observacionales).Una vez desaparecida la metafísica tradicional, la ciencia y la teoría de la ciencia, deben ocupar el puesto vacío. Los científicos no ofrecen sólo técnicas, sino una visión del mundo.

5.2. El demarcacionismo falsacionista.

El representante de esta posición es K.R. POPPER se despega del principio de verificabilidad. Las teorías científicas son complejas y no pueden despojarse de conceptos generales y teóricos hasta el punto de ser directa y totalmente sometibles a verificación empírico-sensible.

Según él la ciencia se distingue de las proposiciones metafísicas en que está dotada de contenido real y puede elaborar predicciones que pueden comprobarse experimentalmente, bien de manera directa, bien extrayendo conclusiones según las normas de la lógica matemática.

Los experimentos no servirán para probar de una forma concluyente y de una vez por todas la verdad de una teoría, sino que la pondrán a prueba, y si sus predicciones no se cumplen, la teoría será desechada, esta vez definitiva y totalmente. La experiencia no puede probar la verdad, pero sí demostrar la falsedad.

Sustituye el principio de verificabilidad por el de falsabilidad. El método de la ciencia es lo que diferencia la ciencia del pseudoconocimiento. Es el método HIPOTÉTICO-DEDUCTIVO:

El científico inventa una hipótesis y a partir de esta generalización, deduce, con el auxilio y el control de la lógica formal, una serie de conclusiones que luego deberá someter a la prueba de la experiencia.

Rechaza el inductivismo, por muchos casos que hayamos observado, por mucho que se repita un fenómeno, nada nos garantiza que dichas regularidades persistan en el futuro, cuando lo deseable es que la ciencia pueda ofrecer, si no seguridad absoluta, al menos un grado elevado de probabilidad. Desde el punto de vista lógico no es correcto inferir enunciados universales partiendo de otros singulares:

Ej.: Observación Mercedes, Julián…. han muerto

No puedo deducir: todos los hombres son mortales.

Sí desde la hipótesis: todos los hombres son mortales.

Deducir correctamente: Juan, Elena, Segismundo han de morir.

Basta contrastarla.

La tarea del científico consiste en elaborar teorías y contrastarlas. Distingue dos tipos de situaciones que llama contextos: el contexto del descubrimiento y el de la justificación.

El Contexto del Descubrimiento es creativo y personal, interviene el azar, no es un proceso lógico.

El Contexto de Justificación consiste en la comprobación de una teoría mediante la deducción de conclusiones y el contraste con la experiencia. Hay cuatro procedimientos para llevar a cabo la contrastación de una teoría:

1º La comparación lógica de las conclusiones unas con otras. Con ello se somete a contraste la coherencia interna del sistema.

2º El estudio de la forma lógica de una teoría, con objeto de determinar su carácter: si es una teoría empírica-científica, o si, por ejemplo, es tautológica.

3º La comparación con otras teorías, que tiene por principal mira la de averiguar si la teoría examinada constituiría un adelanto científico en caso de que sobreviviera a las diferentes contrastaciones a que la sometamos.

4º La contrastación por medio de la aplicación empírica de las conclusiones que pueden deducirse de ella»

Para aplicar estos procedimientos son muy importantes los experimentos relevantes que son aquellos que sólo pueden deducirse de nuestra teoría y de ninguna otra. Mejor si son contradictorios con otras explicaciones ajenas a ella.

Finalmente formula el principio de falsación:

«Si las conclusiones singulares resultan ser aceptables, o verificadas, la teoría a que nos referimos ha pasado con éxito las contrastaciones (por esta vez); no hemos encontrado razones para desecharla. Pero si la decisión es negativa, o sea, si las conclusiones han sido falsadas, esta falsación revela que la teoría de la que se han deducido lógicamente también es falsa. Una decisión positiva puede apoyar a la teoría examinada sólo temporalmente, pues otras decisiones negativas subsiguientes pueden siempre derrocarla.»

La ciencia nunca afirma nada radicalmente. Tan sólo nos confirma que tenemos buenas razones para creer tal o cual cosa.

La experiencia es el criterio de demarcación que permite distinguir no sólo qué teorías son científicas, sino también cuáles se refieren a algo real y cuáles son meras especulaciones vacías de contenido.

Los requisitos de una buena teoría son tres:

«1º Ha de ser sintética, de suerte que pueda representar un mundo no contradictorio, posible;

2º Debe satisfacer el criterio de demarcación, es decir, no será metafísico, sino representará un mundo de experiencia posible;

3º Es menester que sea un sistema que se distinga -de alguna manera- de otros sistemas semejantes por ser el que representa nuestro mundo de experiencia.»

La experiencia sirve para dotar de contenido a la teoría, para medir su fiabilidad y para delimitar su ámbito.Sustituyendo unas hipótesis por otras cada vez más satisfactorias. Se trata de una visión plácida, de una tarea lenta y paciente, que progresa despacio, pero inexorablemente.

5.3. Paradigmas y revoluciones científicas.

T.S. Kuhn cuestiona la idea de progreso continuado de la ciencia y destaca el papel que, dentro de las comunidades científicas, juegan los grandes supuestos a los que llama paradigmas:

«Realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica.»

Sus características son: se trata de macroteorías amplias y sugerentes, incompletas en sus detalles y que permiten un fecundo trabajo dentro de sus límites. Se mantienen en vigor durante mucho tiempo y tienen elementos discordantes, detalles que no pueden explicarse o que incluso los contradicen. Se subsanan estas anomalías con teorías auxiliares, hipótesis ad hoc, formuladas para explicar una excepción determinada

Ej. Teoría astronómica de Ptolomeo.

Estos paradigmas pueden entrar en crisis cuando las hipótesis auxiliares son más voluminosas que la propia teoría y las excepciones más numerosas que los fenómenos explicados. En este momento varias teorías entran en competencia hasta que una de ellas se convierte en el nuevo paradigma.

Según Kuhn la Historia de la ciencia no se puede definir como un proceso acumulativo, sino una sucesión de revoluciones científicas, cada una de las cuales anula y hasta contradice lo postulado en el período anterior. Sólo se habla de progreso en los momentos en que trabajan bajo un paradigma (ciencia normal).

La ciencia normal son momentos conservadores por su empeño en aferrarse a su paradigma, a sus supuestos básicos.

En la revolución científica las grietas son cada vez más profundas en el paradigma y se extienden hasta multiplicar las anomalías, hasta que la práctica científica habitual no pueda ya absorberlas y se produce la crisis. Se inician las investigaciones extraordinarias que conducen por fin a la profesión aun nuevo conjunto de compromisos, una base nueva para la práctica de la ciencia.

El paradigma no sólo ofrece una nueva imagen de la ciencia, sino una reconstrucción del mundo: decide qué es lo que existe y lo que no existe en el universo, qué es observable y qué no lo es: que es un hecho. Hechos y teorías no son fácilmente separables, porque la ciencia es una interpretación del mundo.

Una teoría se convierte en paradigma si es amplia, abarca y explica un número elevado de hechos, si es innovadora y si posee un atractivo suficientemente poderoso para atraerse a la mayor parte de los científicos de modo duradero.

Los paradigmas suponen un cambio radical, pero no un progreso. Ya que progreso indica comparación. Las diferencias entre paradigmas sucesivos son tan profundas e irreconciliables que no los podemos comparar. Cada uno define de nuevo la ciencia, los términos y el mundo. Ni siquiera comparten un lenguaje.

«La recepción de un nuevo paradigma frecuentemente hace necesaria una redefinición de la ciencia correspondiente. Algunos problemas antiguos pueden relegarse a otra ciencia, o ser declarados absolutamente no científicos. Otros que anteriormente eran triviales o no existían siquiera, pueden convertirse, con un nuevo paradigma, en los arquetipos mismos de la realización científica de importancia.

Y al cambiar los problemas también lo hacen las normas que distinguen una solución científica real de una simple especulación metafísica, de un juego de palabras o de un juego matemático. La tradición científica, normal que surge de una revolución científica es no sólo incompatible, sino también a menudo realmente incomparable con la que existía con anterioridad.»

La ciencia es una sucesión de períodos incomunicables entre sí y totalmente cerrados y distintos. La tolerancia sólo se da en períodos de crisis y revolución.

5.4. Los programas y tradiciones de investigación científica.

Imre Lakatosdestaca que el criterio de demarcación positivista supone que una teoría no es científica cuando excluye la posibilidad de su refutación y niega la existencia de la serie de experiencias que podían derribarla. Pero una teoría científica compleja no prohíbe ningún hecho, porque ningún hecho podría refutarla; está amparada por una red de hipótesis auxiliares tan espesa que puede responder arguyendo tantas condiciones especiales, que, de hecho, «la irrefutabilidad se convierte en un distintivo de la ciencia.»

Ej. «Todos los gatos tienen los ojos verdes».

Gato ojos azules.

Excepción: malformación

La refutación Popperiana, tiene dos supuestos falsos:

Existe una frontera natural, fácilmente perceptible, entre las proposiciones teóricas y las fácticas. Pero según Lakatos «No hay ni puede haber sensaciones no impregnadas de expectativas». Toda observación supone una interpretación de lo observado y está teñida de prejuicios teóricos: vemos lo que queremos ver, encontramos lo que buscamos.

Una proposición puede ser confirmada o refutada por los hechos.

Aduce la Regla lógica que dice no se pueden mezclar lenguajes distintos. Nada extralingüístico puede introducirse en el lenguaje. Una afirmación sólo podría demostrarse empleando para ello cuantos argumentos se nos ocurran, pero nunca probarse mediante hechos, precisamente porque ningún hecho puede pertenecer a la esfera del lenguaje.

El falsacionismo se aplica a hipótesis sueltas. La ciencia no funciona así, sino por grandes bloques: Los programas de investigación.

Los programas constan de un núcleo central de verdades consideradas fundamentales. «Este núcleo está tenazmente protegido contra las refutaciones mediante un gran cinturón de hipótesis auxiliares…Tiene también una poderosa heurística, una poderosa maquinaria para la solución de problemas que, con la ayuda de técnicas matemáticas sofisticadas, asimila las anomalías y las convierte en evidencia positiva».

Toda situación crítica se transfiere al cinturón protector y no puede afectar al núcleo. Los programas se constituyen en torno al núcleo rodeando ese centro de verdades primordiales de una serie de hipótesis, sugerencias y líneas de trabajo. Los límites del programa se amplían cada vez más con la heurística positiva, sugerencias nuevas y aplicaciones diferentes.

La ciencia no funciona con un solo programa de investigación, sino que tantea con varios a la vez. Se decide por uno o por otro según el mayor grado de progreso que impliquen.

Se produce la revolución científica si tenemos dos programas de investigación rivales, y uno de ellos progresa, mientras que el otro degenera. El progreso consiste en explicar lo mismo que el rival y superarlo en amplitud y posibilidades.

El pluralismo, la competencia de programas, es una garantía contra el dogmatismo y el anquilosamiento. La ciencia es predominantemente inductiva, se trabaja mediante un tanteo de pruebas y refutaciones, de observaciones y ensayos, de proyectos que sólo se convertirán en teorías en virtud de su utilidad.

No hay separación contexto del descubrimiento y de justificación, entre invención y prueba, cuando se inventa se piensa al mismo tiempo la prueba y de las pruebas salen nuevas sugerencias.

El formalismo ritualiza la ciencia y disfraza su realidad bajo una estructura deductiva que se ha construido posteriormente.

5.5. El anarquismo epistemológico.

Paul Feyerabenden sus obras defiende el pluralismo teórico como rasgo esencial de todo conocimiento científico.

Nadie abandona una teoría, por contraria que parezca a los hechos, si no tiene, para sustituirla, una explicación mejor. Sólo puede ser defendida o desechada mediante la confrontación con otras teorías.

Como ejemplo dice que la teoría cuántica, son construcciones teóricas extremadamente elaboradas y complejas, explicaciones totalmente alejadas del plano de los hechos. Los científicos se deciden a adoptar una u otra por una elección mayoritaria dentro de un extenso grupo de opinantes. En la elección influyen factores muy diversos: económicos, políticos, prácticos y estéticos. No hay un criterio objetivo de elección (Lakatos).

La comunidad científica oculta los errores y rodea sus actividades de secreto y ceremonial.

La filosofía de la Ciencia sigue reflexionando sobre la dinámica de esta. Hoy se destacan los estudios de Bruno Latour que como antropólogo observa el trabajo en un laboratorio con el fin de describir cómo se construyen los hechos científicos. En sus obras se destaca cómo la misma investigación en el laboratorio está relacionada con la sociedad en que se desarrolla. No se puede separar la ciencia de la sociedad. Ni la historia de la ciencia de la historia de las sociedades en que se produce.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *