2006-2008 Plan +
Une science
est un
ensemble de
connaissances
ayant un
objet
déterminé
et une méthode
propre. Si
l'on se
réfère
au
dictionnaire
(Petit Robert,
1984), le
terme a une
longue
histoire et
vient du
latin: scientia,
ayant pour
racine le
verbe scire:
savoir. Depuis
le
XVème
siècle
le terme de
science
désigne
aussi la
pratique d'un
art ou
d'une technique
(la science de
la guerre par
exemple).
+
La science est
un terme qui
désigne
couramment les
sciences
expérimentales. Par
exemple quand
on parle "des
progrès
de la
science..." ou
"des
scientifiques...
(par
opposition aux
littéraires)",
on pense aux
sciences
expérimentales.
Parfois
certains
parlent de
sciences exactes
par opposition
aux sciences spéculatives
ou pratiques.
Il y a
déjà
quelques
années
il
était
de bon ton de
parler de
sciences molles
et de
sciences dures.
+
La science est
l'étude
de la réalité
à
la
lumière
des causes
immédiates. Cette
définition
est
métaphysique
dans le sens
où elle
utilise un
vocabulaire métaphysique
: les mots de
la philosophie
ont des sens
précis
(selon les
écoles...)
qui ne sont
pas
forcément
le sens
courant (voir
une page sur
la
science et
métaphysique). Des
idées
claires Une
autre approche
sympathique: D'une
part, l'objet
de la science
est la réalité*, *
Pour
la notion de réalité **
Pour
la notion de cause,
***Gérard
Nissim
Amzallag Le
déterminisme
est
l'affirmation
que les
mêmes
causes
produisent les
mêmes
effets en tous
lieux et en
tout temps.
Une
théorie
est dite
déterministe
(c'est une loi)
si elle permet
de
prévoir
l'évolution
d'un
système
à
partir des
conditions
initiales. Des
confusions...on
ne croit plus
à la
vérité
Par
ignorance, par
usage abusif
du terme (et
surtout de
celui de science
expérimentale)...
on ne sait
plus ce que
veut dire la
science. On en
est donc
réduit
à prouver
que ce que
l'on fait est
bien
scientifique.
Au lieu de
chercher la
vérité
on cherche des
critères
de
scientificité.
Quand bien peu
de gens
adhèrent
à la
notion de
vérité
(le relativisme
est une
opinion
très
répandue
qui conduit
à une
forte
agressivité
face à
ceux qui la
rejettent), il
est assez
difficile de
trouver des
critères
acceptés
par tous. Des
changements...
l'abandon du
déterminisme Nissim
Amzallag, dans
son analyse de
l'évolution
de la
pensée
scientifique
depuis l'arbre
de la
connaissance
de Descartes (LRM***
p12-23),
fait jouer un
rôle
pivot aux
sciences
physiques
classiques
appuyées
sur un
postulat de déterminisme.
Lors de
l'abandon
(partiel) du
déterminisme
(au-delà
de la
non-prédictibilité
de certains
phénomènes,
on
ne croit plus
en des lois
physiques
immuables)
dans la
deuxième
moitié
du
XXème
siècle,
maints
physiciens se
sont
tournés
vers des
philosophies
relativistes
ou faisant la
part belle
à la
technique qui
devient un
critère
même de
scientificité.
*
le
scientisme
désigne
une position
philosophique
où une
connaissance
n'est vraie
que si elle
est
scientifique
(c'est-à-dire
finalement
expérimentale
et donc
sensible) **
le positivisme
est la
doctrine
philosophique
scientiste
issue
d'Auguste
Comte; pour
comprendre son
influence sur
l'enseignement
au cours du
XXème
on peut lire :
"De
l'enseignement
des sciences
à
l'école
primaire;
l'influence du
positivisme",
Pierre Kahn,
1999, Hatier
formation: extraits
sur le site
associé ***
voir par
exemple le
petit livre
d'un ancien
Inspecteur
général
de
l'Instruction
Publique :
Georges
Canguilhem, La
connaissance
de la vie,
Hachette,
collection
Science et
Pensée,
1952 : dans
une conférence
sur
l'expérimentation
en biologie
animale
il montre par
exemple
combien il est
hâtif
d'attribuer
à
Claude Bernard
l'élaboration
de la
méthode
expérimentale Relations
science et foi
catholique:
rationalisme,
positivisme et
maintenant subjectivisme
(« ...
on
considère
communément
que la
religion
appartient au
domaine du
«privé»,
subjectif,
alors que la
science a une
validité
objective
universelle et
"publique"».) Des
positions
scientistes et
positivistes...
dépassées Le
scientisme*
et le positivisme**
n'ont plus
l'importance
passée
dans les
milieux
philosophiques
et
épistémologiques.
Mais certains
enseignants et
formateurs
issus du
"pédagogisme"
continuent de
ce faire
l'écho
de ces
doctrines
(voir sur le site
associé
4
années
de lutte
contre cette
vision
étroite
de la
pédagogie
- par
exemple). On
voit ainsi
certains
pédagogues
se
réclamer
d'un
matérialisme
qui serait la
seule
position
rationnelle
possible pour
un
scientifique.
Vouloir
exclure du
domaine
scientifique
tout autre
position
philosophique
que ce
néo-scientisme
me semble
être
illusoire. On
peut citer par
exemple
Guillaume
Lecointre dans
un point de
vue
publié
dans Pour
la Science
(Des
scientifiques
s'égarent...,
Pour La
Science,
259, mai 1999,
8-9) ; cet
auteur se
réfère
à un matérialisme
méthodologique
qui
d'après
lui fonde
les sciences
depuis le
XVIIIème
siècle
(il l'oppose au
matérialisme
dialectique
marxiste).
D'une part, je
crois que l'on
peut dire que
la science
expérimentale
n'a pas
été
fondée
au
XVIIIème
mais bien
avant, par
Aristote
à mon
avis mais cela
se discute
sans doute,
d'aucuns
préférant
la situer au
temps de
Galilée***.
D'autre part,
s'il n'y a pas
de science
sans raison,
il n'y a pas
de
matérialisme
sans
philosophie.
Le
matérialisme
méthodologique
de Guillaume
Lecointre est
philosophique
et non pas
scientifique
Il est
probablement
positiviste,
pour ce que
j'en comprend
en lisant les
quelques
lignes de
l'article
cité
(il me
paraît
aussi
être nominaliste,
pour ce qui
est de la logique,
notamment dans
sa conception
de la cladistique...
que l'on
trouve
résumée
dans le
lamentable
préambule
à son
inutile Classification
phylogénétique
du vivant (les
pages 11-18
sont un monument
d'ignorance;
lisez
plutôt
un article
d'encyclopédie
sur les
classifications
("Systématique"
in EU par
exemple), vous
en apprendrez
bien
davantage); pour
une approche
érudite
de l'histoire
des
classifications
jusqu'au
début
du
XXème,
je conseille
un texte d'André
Pichot:
Définir,
décrire
et classer en
biologie,
Delagrave 2005).
La
méthode
hypothético-
déductive Elle
se
déroule
CLASSIQUEMENT
en 4 temps: On
tend
actuellement
à
préférer
le terme de modèle,
mais je crois
que ce concept
recouvre bien
la notion de
théorie
même si
les lois ne
sont plus
acceptées
comme une
vérité.
Il
y soutient que
"méthode
expérimentale"
est un oxymore;
la seule
activité
présente
dans les
laboratoires
est une pratique
expérimentale,
incapable de
valider les
modèles,
juste de les
susciter. La
preuve par
l'expérience
d'une loi
continue - une
fonction f(x)
par exemple -
est
évidemment
impossible
à faire
par le biais
d'expériences
discrètes
(x est une
variable
continue).
D'une
façon
plus
générale
un
espace
fonctionnel de
dimension
infinie est
par
définition
inexplorable.
Le second
problème
soulevé
par
René
Thom et qu'il
doit à
Jean-Pierre
Duport,
spécialiste
de
l'hémophilie,
est celui de
la causalité
diffuse;
désignant
par là
une succession
déraisonnable
de causes
efficientes
secondes
très
insuffisantes
par
elles-mêmes.
Ce
travers
à
patent dans
les
réseaux
génomiques.
«
Pour
réaliser
une
expérience,
on effectue
les
démarches
suivantes : --->
suite in
René
Thom,
La
méthode
expérimentale
: un mythe des
épistémologues
(et des
savants) ?
1984, p 3-5, 8
et 10 [...]
Ce fait
expérimental
est-il
scientifique ?
[...]
La
nécessité
de
l'expérience
n'est pas
vraiment
contestée... La
majorité
s'accorde pour
donner
à
l'expérience
un statut
privilégié
mais elle
n'est plus le
critère
unique de
scientificité
puisque
certains
rejettent la
possibilité
d'en tirer des
lois, au nom
de
l'indéterminisme
présenté
plus haut. La
Raison
malmenée.
De l'origine
des
idées
reçues
en biologie
moderne,
Gérard
Nissim
Amzallag,
Préface
d'André
Pichot, CNRS
Editions 2002,
p 166-167 La
loi de
gravitation
universelle,
une fraude ? Dans
son Philosophiæ
Naturalis
Principia
Mathematica,
Newton énonce
en 1687 la loi
de gravitation
mais les
données
expérimentales
numériques
qu'il fournit
à
l'appui de sa
loi sont
relativement
éloignées
des
prédictions.
Dans la
seconde
édition
de son ouvrage
en 1713, on
note une nette
réduction
de
l'écart
entre la
valeur
prédite
et la valeur
observée,
ce qui
renforce
considérablement
la valeur
prédictive
de sa
théorie.
«
Selon R.
Westfall (Newton
and the fudge
facteur,
Science, 1973,
179, 751-758),
c'est bien
cette
adéquation
entre les
valeurs
prédites
et
observées
qui
força
les sceptiques
à
concéder
le statut de
loi à
la
théorie
de Newton.[...]..Selon
Westfall, la
précision
apportée
par Newton
dans ses
mesures
était
absolument
impossible
à
obtenir
à cette
époque.
Force est donc
de conclure
que Newton a
"déformé"
ses
données
numériques
de
façon
à les
faire
converger vers
ses
prédictions».
(Amzallag,
p 166-167).
Ce qui importe
plus que la
fraude, ce
sont les
conséquences
: «...une
fois la loi
entérinée,
tout
écart
du réel
vis-à-vis
de la
prédiction
fut
considéré
comme une
perturbation
circonstancielle,
un bruit
interférant
avec l'action
du facteur
principal».
Ceci n'est pas
un cas
isolé.
Galilée
est connu pour
avoir
rapporté
des expériences
mensongères
(qu'il n'a
visiblement
jamais
réalisé
parce que les
observations
réelles
sont
différentes
de celles
qu'il
rapporte). Pascal
aussi, dans
une
expérience
connue sur le
vide
(reprenant en
1647 celle
de Torricelli
de 1643,
réalisée
avec du
mercure),
rapporte
l'observation
d'un "vide"
qui se
crée
à
l'extrémité
non
scellée
d'un long tube
rempli d'eau
et
renversé
sur une cuve
pleine. Le "vide"
observé,
semble d'un
part
très
difficile
à
obtenir et
d'autre part
est en fait un
mélange
d'air et
d'eau, qui
apparaît
à
l'interface,
alors que l'on
observe une
ébullition. Un
bon moyen pour
ne pas se
laisser
enfermer dans
la loi est
donc de ne pas
y entrer. Mais
les choses ne
sont pas si
simples car
l'on a besoin
de la
prédictibilité
pour agir sur
l'objet. «La
loi n'est ni
vraie ni
fausse mais
existe au nom
de la
cohérence
mathématique
de sa
formulation.»
(Amzallag, p
179)
«...il
est possible
d'étudier
des
phénomènes
de plus en
plus discrets.
Mais ce
progrès
a un prix :
plus le
phénomène
étudié
est
quantitativement
réduit,
et plus le
niveau de
bruit autour
du
phénomène
(l'artéfact
expérimental)
est
élevé.
C'est en vertu
de ces
contraintes
que la
présentation
d'un
résultat
positif,
même
précédé
d'un grand
nombre
d'essais
négatifs,
est
considérée
comme
suffisant pour
confirmer le
bien-fonfé
d'une
théorie.»
(p 181-182)
Par
quoi remplacer Les
lois sont
remplacées
par des modèles. Mais
quelle est la
validité
d'un
modèle
si aucun
être
vivant n'est
réductible
à la
partie d'un
tout ? Que
signifie une expérience
? Les
expériences
ne fondent
plus les
théories
mais elles
restent
incontournables
comme moyen
d'observation,
de questionnement
du
modèle
(le
modèle
questionne la
réalité
et
l'expérience
questionne le
modèle).
«
Du coup, la
biologie
moléculaire,
expliquant les
machineries
chimiques de
la vie, mais
non la vie
elle-même,
a cru que la
vie
était
une notion
mythologique,
de toute
façon
indigne de la
science, et a
expulsé
la vie hors de
la
biologie» Affirmer
la
différence
ontologique
entre les
êtres
vivants et les
autres objets
de la nature
était
devenu
difficile
après
l'hégémonie
de la
physique, puis
de la chimie,
et
récemment
de la
technologie,
sur les
sciences du
vivant. ****Gérard
Nissim
Amzallag,
2003,
«La
connaissance
de la vie doit
s'accomplir
par
conversions
imprévisibles,
s'efforçant
de saisir un
devenir dont
le sens ne se
révèle
jamais si
nettement
à notre
entendement
que lorsqu'il
le
déconcerte»
(Georges
Canguilhem, La
connaissance
de la vie,
Hachette,
collection
Science et
Pensée,
1952, p45) Pour
réaliser
ce changement
de paradigme
qui est un
re-fondement
de la
biologie, les
outils sont
l'observation,
la raison,
l'expérimentation,
les
mathématiques...
rien de
nouveau. Si
vite que je
pense que pour
la
première
fois dans
l'histoire le
changement
Pour
être le
témoin
de ces
changements,
je n'ai pas
vraiment de
poste
privilégié; Quelques
précisions
sur la
méthode
: +
La biologie du
développement
est un bon
exemple pour
cerner les
approches
scientifiques
: d'après 1.
la recherche
d'ordre
(relations
entre des
parties d'un
organisme
(anatomie) ou
entre les
éléments
d'un ensemble) *
l'embryologie
descriptive et
comparative regroupe
deux approches
anatomiques: 2.
la recherche
de
causes
(secondes) *
l'embryologie
expérimentale
se fonde
davantage sur
la
physiologie:
on a longtemps
parlé
d'Entwicklungsmechanik
(mécanique
du
développement)
puis d'embryologie
causale ou
encore
d'embryologie
physiologique. *
le terme d'enquête
qui semble
être
utilisé
à la
place de "méthode
de recherche"
ne me
paraît
pas plus
juste, bien au
contraire. Il
s'agit
clairement de
la recherche
de la
vérité.
Dans
l'enquête
policière
la
vérité
est historique
et l'on peut
considérer
qu'elle est
unique et
indiscutable
(même si
elle n'est pas
toujours
atteinte).
Dans
l'enquête
scientifique
la
vérité
a de multiples
visages. Je
suis un
réaliste
inconditionnel
mais je ne
crois pas
à la
toute
puissance de
la science
expérimentale:
le réel
dépasse
l'expérimental.
Dans
des conditions
expérimentales
aussi
contrôlées
et
reproductibles
que possible
on
réalise
(au moins)
deux
expériences
en ne
changeant
qu'un seul
paramètre
(l'expérience
où le
paramètre
prend la
valeur la plus
habituelle est
dite témoin
ou contrôle).
Seule
une
différence
entre les deux
résultats
peut
être
interprétée
(si aucun
paramètre
observable
n'est
modifié,
à part
le
paramètre
modifié
expérimentalement
(paramètre
de
contrôle),
le
système
est statique
et le
paramètre
inopérant).
En embryologie
c'est soit un
groupe de
cellules, soit
une cellule,
soit une
molécule
que l'on
ajoute, que
l'on supprime,
ou que l'on
déplace,
chez un
organisme en
développement.
En
génétique,
le
problème
est plus
complexe car
on
sélectionne
la plupart du
temps des
individus (ou
des cellules)
modifié(e)s
survivant(e)s
dont on
étudie
ensuite les
caractéristiques
génétiques. Trois
conséquences,
nommées
indices
par S. Gilbert
- et que
personnellement
je nomme preuves**
-, sont
interprétables
: **
le terme de preuve
pourrait
être
défini
(selon
F. Gil in EU
article
"preuve
(épistémologie)")
comme «établie
par une méthode
reconnue et
faisant
l'objet d'une
croyance».
Il y a donc
plusieurs
niveaux de
preuve selon
la
méthode
et la croyance
d'une personne
donnée.
Les
croyances
scientifiques
sont bien
diverses selon
les niveaux de
culture...
penser
qu'elles sont
unifiées
dans une
vérité
(idéale)
relève
de l'opinion.
Comme
archive, je
laisse ici un
lien avec un
ancienne
page
sur la
méthode
expérimentale.
1
-
définitions
La
métaphysique
distingue
selon la fin
:
*
les
sciences
pratiques qui
recherchent la
vérité
(scientifique)
pour
l'appliquer
à une
opération
immédiate.
Elles sont
très
valorisées
actuellement.
*
les
sciences
théoriques
ou
spéculatives
ont pour
finalité
la
vérité
pour
elle-même
(ou pour
soi-même...
par amour de
la
vérité);
elles
comprennent
par exemple
les
mathématiques,
la physique,
les sciences
naturelles, la
philosophie...
qui
étudient
toutes les
réalités
mais selon
différents
angles. C'est
bien sûr
de ces
sciences dont
nous devons
parler ici.
La
métaphysique
classe aussi
les sciences
selon leur objet:
*
les
sciences de
la nature
ont pour objet
tout
être
matériel,
corporel, en
tant que
corps.
*les mathématiques,
font
abstraction de
la
matière
et
étudient
les objets
matériels
dans leur
quantité
d'être
(je fais
référence
ici à
la notion
essentielle
d'être
en
métaphysique).
* la métaphysique,
enfin,
étudie
les
réalités
qui ne
dépendent
pas de la
matière:
son objet est
"l'étant
en tant
qu'étant"
(là
encore cette
notion
métaphysique
n'est
certainement
pas
évidente
et,
plutôt
que d'essayer
vainement de
la
définir,
je vous invite
par exemple
à lire
l'article de
l'Encyclopedia
Universalis
à
Aristote ou
à
Métaphysique).
L'Encyclopédie
de Diderot et
d'Alembert,
publiée
en 1751, place
les sciences
de la vie
(« l'histoire
naturelle »)
dans le
domaine des
connaissances
rattachées
principalement
à la mémoire,
première
des trois
facultés
(avec la raison
et l'imagination).
D'Alembert
précise
dans le
Discours
préliminaire
de
l'Encyclopédie :
« La
division
générale
de nos
connaissances
suivant nos
trois
facultés
a cet avantage
qu'elle pourra
fournir aussi
les trois
divisions du
monde
littéraire
en
érudits,
philosophes et
beaux-esprits... »
(d'après
Paul Mazliak,
La biologie au
siècle
des
lumières,
Comment
"l'histoire
naturelle" est
devenue
biologie, mars
2006,
Coédition
Adapt/Vuibert)
et d'autre
part, sa
méthode
consiste
à
rechercher les
causes**
immédiates
, et non les
causes
profondes ou
principes
premiers.
se reporter
à
l'article de
Jean
Largeault:
réalisme,
Encyclopedia
Universalis
Si
l'immense
majorité
des
épistémologues
sont
idéalistes,
je suis
profondément
réaliste
(je
crois à
une
matière
naturelle,
indépendante
de nos
perceptions).
Je comprends
la phrase
"toute science
est une
phénoménologie"
comme un
accord entre
vie et
vérité.
voir les
4 causes
d'Aristote en
SVT
2
- usages
La
Raison
malmenée
:
de l'origine
des
idées
reçues
en biologie
moderne,
2002, CNRS
Éditions
(cité
LRM ci-contre)
Science et
Foi : du
conflit au
dialogue petit
texte de J.
Grifone,
mathématicien
catholique
3
- La
méthode
expérimentale
en accusation
...
une
antiquité
?
On
distingue
alors les modèles
internes
(qualifiés
de
"réels"
car ils
s'efforcent de
décrire
le
comportement
des
systèmes
réels
c'est-à-dire
naturels pour
ce qui nous
intéresse)
et les modèles
externes
(qui
s'efforcent de
décrire
le
"comportement"
des
observations,
c'est-à-dire
de notre
connaissance,
ce sont des
modèles
logiques)
(voir par
exemple
l'article de
Jacques OKSMAN
: Mesures et
information,
Pour la
Science, 258,
avril 1999,
90-95).
Il
va sans dire
que nombre de
physiciens et
tout autant de
biologistes ne
sont pas
prêts
à
abandonner
cette
confiance dans
des lois de la
nature que le
travail du
scientifique
est de
dévoiler.
Certains ont
peut-être
entendu parler
des remous
provoqués
par le texte
de René
Thom présenté
à
l'Académie
des sciences :
La
méthode
expérimentale
: un mythe des
épistémologues
(et des
savants) ? 1984,
12;
Exposé
de philosophie
des sciences
à
l'Académie
des sciences,
19 novembre
1984. In Comptes
Rendus de
l'Académie
des Sciences,
série
générale,
« La
vie des
sciences
»,
II, 1, Paris,
Gauthier-Villars,
Janv-Fév.
1985, pp.
59-68. Ce
texte est
publié
dans le CDRom
des
œuvres
complètes
de Thom avec
une partie du
débat
qui a suivi.
Il est aussi
publié
in La
philosophie
des sciences
aujourd'hui,
J.Hamburger
éd.,
Paris,
Gauthier-Villars,
1986, pp.
7-20.
1) On isole un
domaine D de
l'espace-temps,
le «
laboratoire
». Les
parois de D
peuvent
être
réelles
ou fictives.
2) On remplit
ce domaine
d'ingrédients
divers -
substances
chimiques,
êtres
vivants, etc.
qui
constituent le
système
étudié
(S), selon un
protocole de
préparation
(écrit
en langue
usuelle
technicisée).
3) On perturbe
le
système
(S) en lui
envoyant,
à
partir de
sources
dûment
contrôlées,
des flux bien
définis
de
matière
ou
d'énergie
(flux
décrits
en nature, en
débit,
en vitesse et
en position
par le
protocole
d'expérience).
4) On
répertorie
les
réponses
du
système
grâce
à des
appareils dont
la nature et
la position
par rapport
à (D)
sont
spécifiées
dans le
protocole
d'expérience.
Ce
schéma,
en fait, rend
compte
également
des notions
voisines :
observation,
exploration,
expérimentation.
Dans
l'observation
(simple), on
ne
prépare
pas le
système,
on l'isole (de
manière
voulue ou
spontanée)
dans
l'ensemble des
faits naturels
; les parties
1, 2, 3
n'existent
pas, seul
subsiste 4,
réduit
en
général
à la
simple vision.
Dans
l'exploration,
on a 1, 2 et
4,mais on joue
des
paramètres
contrôlant
les appareils
d'enregistrement,
de
manière
à
couvrir tout
le champ
expérimental
défini
dans 1.
L'expérimentation
fait appel aux
quatre
étapes
ci-dessus, 1,
2, 3, 4.
1) Le fait
doit
être
reproductible.
Cela exige que
les protocoles
de
préparation
et
d'expérience
soient
suffisamment
précis
et
détaillés
pour qu'on
puisse - en
d'autres temps
et en d'autres
lieux -
reproduire
l'expérience.
Le
critère
de
reproductibilité
du fait exige
- dans une
interprétation
dynamique -
une
hypothèse
de «
stabilité
structurelle
» (alias
«
généricité
») des
dynamiques
sous-jacentes.
2) Le
fait doit
présenter
quelque
intérêt.
On touche ici
à un
problème
immense.
Disons
seulement que
l'intérêt
peut
être
soit pratique
(technologique),
soit
théorique.
[...] Qu'il
s'agisse de
créer
ou d'interdire
un
phénomène,
dans les deux
cas, on est
confronté
à une
analyse
causale de ses
conditions de
production. Le
fondateur
historique de
la
méthode
expérimentale,
Francis Bacon,
a cru pouvoir
affirmer que
l'emploi de
l'expérimentation
permettait
à elle
seule
d'analyser
causalement
tout
phénomène.
C'est cette
illusion que
je voudrais
tout
particulièrement
dissiper.
L'expérimentation,
à elle
seule, est
incapable de
découvrir
la (ou les)
cause(s) d'un
phénomène.
Dans tous les
cas, il faut
prolonger le
réel
par
l'imaginaire,
et
éprouver
ensuite cet
halo
d'imaginaire
qui
complète
le
réel.
Ce saut dans
l'imaginaire
est
fondamentalement
une
opération
mentale, un Gedankenexperiment,
et aucun
appareil ne
peut y
suppléer.
Claude
Bernard, fort
lucidement,
avait bien vu
cet aspect, et
dans son
schéma
- Observation
- Idée
-
Expérimentation
- le processus
psychologique
créant
l'idée
est
laissé
dans une
totale
obscurité,
mais il
insiste sur sa
nécessité,
au contraire
de Bacon qui
prétendait
que
l'expérience
répétée
pouvait
fournir - par
induction -
l'idée
de la loi.
Autrement dit,
l'expérimentation,
pour
être
scientifiquement
significative,
ne dispense
pas de penser
. [...] Il est
hors de doute
que la seule
méthode
concevable en
matière
expérimentale
(qu'elle soit
à but
théorique
ou pratique)
doit
nécessairement
passer par
l'analyse
causale des
phénomènes
étudiés.
Or en science,
on ne dispose
que de deux
types
d'analyse
causale.
L'une,
fondée
sur l'analyse
en langue
naturelle, est
essentiellement
aristotélicienne
d'esprit : il
s'agit
d'expliquer le
phénomène
par une cause
efficiente, en
général
une
entité
ad hoc, un
« agent
responsable
» ;
l'autre,
mathématique
et
physicaliste,
est
fondée
sur la
réduction
à un
système
différentiel
dont la
solution est
déterminée
par les
conditions
initiales. On
peut
compliquer le
premier
schéma
par des
cascades de
causalité
interagissantes
: c'est le
principe des
schémas
cybernétiques.
On peut
simplifier le
second par des
considérations
de type
dynamique
lente,
dynamique
rapide,
méthodes
asymptotiques,
qui
réintroduisent
des
éléments
discrets, mais
la jonction
entre les deux
sortes
d'analyse
demeure en
général
impossible.
[...]
Concluons
:
l'expérience
est
guidée
soit par un
besoin
technologique
immédiat
(par exemple,
tester les
propriétés
de tel ou tel
matériau
sous telle ou
telle
condition),
soit par une
hypothèse,
fruit d'une
expérience
mentale (Gedankenexperiment),
qui la
précède
et dont on
veut
éprouver
l'adéquation
au
réel.
C'est dire que
toute
expérience
est
réponse
à une
question,
et si la
question est
stupide, il y
a peu de
chances que la
réponse
le soit moins.
»
À cette
vision
désabusée
je crois qu'il
faut opposer
une conviction
ferme sur la réalité
de
l'expérience
et du lien
entre le
phénomène
et la cause.
Peut-être
est-ce par une
redécouverte
de la richesse
de la causalité
que l'on
pourra
accepter ce
mélange
d'indéterminisme
et de
déterminisme
en science
(voir les 4
cause
d'Aristote en
SVT).
La
démarche
expérimentale
est
utilisée
pour
connaître
le
passé
étant
donné
que l'on
suppose la
réversibilité
des lois.
J'avais
dès
1998
été
surpris par le
fait que l'on
oubliait de
dire que les
sciences du
passé
(géologie,
paléontologie)
n'étaient
pas des
sciences
expérimentales
car on ne
peut pas
expérimenter
dans le
passé.
On ne peut
qu'extrapoler
des lois
(postulat d'actualisme:
:
les lois
actuelles
étaient
valables par
le
passé (voir
introduction
du cours
Terminale
Spécialité
). En
fait, ce qui
me chiffonnait
était
donc
plutôt
la
réversibilité
de ces lois
que la
présence
supposée
de ces lois.
Mais
maintenant
comment faire
des
expériences
sans chercher
à
découvrir
des lois ?
Isaac Newton (image)
Ainsi, ce qui
est lourd de
conséquences,
est le
comportement
des
expérimentateurs
qui, en se
fiant à
la loi
acceptée,
corrigent
leurs
résultats
pour les faire
cadrer avec
les
prédictions.
« Si
Mendel n'est
pas
critiqué
pour ses
méthodes,
c'est
parcequ'elles
constituent
aujourd'hui
encore une
norme» (Amzallag,
p181).
(voir cours
de TS de
spécialité
: Mendel, en
choississant
ses
caractères,
et en
définissant
des classes
arbitraires
d'équivalence,
était
un
précurseur
de la
méthode
expérimentale
telle qu'on la
pratique).
les
lois du vivant
..
si elles
n'existent
pas?
La
démarche
de René
Thom
fondée
sur l'analogie
est un
réponse
très
pertinente
à cette
question. Toute
analogie est
vraie.
Le travail de
Thom a un but
: construire
un
générateur
de
modèles
pour les
biologistes
(et les
économistes...
et tous ceux
qui cherchent
à
comprendre des
phénomènes).
Mais bien peu
de biologistes
avaient alors
compris ce
message. Les
choses
changent. Nissim
Amzallag
développe
ces questions
avec sa
manière
de voir dans LRM***
ch 13.
4
- pour une
biologie autonome
****
Edgar
Morin (Science
avec
conscience,
Seuil 1990, p
251,
cité in
LRM***
p 18):
Mais il n'a
jamais
manqué
de chercheurs
qui, avec des
sensibilités
très
différentes
et refusant le
réductionnisme,
s'efforcent de
forger des
concepts pour
soutenir ce
renouveau . Je
me suis
efforcé
d'intégrer
quelques-uns
de leurs
travaux
à mes
cours:
Pierre-Paul
Grassé,
Rosine
Chandebois,
René
Thom, Anne
Dambricourt-Malassé,
Pascale
Mentré,
Nissim
Amzallag****...
Cette
pauvre liste
montre combien
ce travail de
formation
personnelle
permanente de
tout
enseignant est
difficile;
bien
évidemment
d'innombrables
chercheurs et
travaux m'ont
échappé
(dire que
presque tous
m'ont
échappé
serait plus
exact mais les
choses
changent :
internet est
pour cela un
outil
extraordinaire).
La biologie
théorique
sera
certainement
d'un grand
soutien dans
cette
approche.
L'homme
végétal
Pour une
autonomie du
vivant,
Albin Michel
(cité
HVPAV)
La
fusion des
Sciences de la
Vie et des
Sciences de la
Terre en SVT
dans
l'enseignement
a-t-elle
été
profitable ?
Je n'en suis
pas sûr.
Si l'on
accepte de
dire que la
terre ne peut
se concevoir
sans vie et
donc que toute
géologie
doit
être une
biogéologie,
il n'y a pas
de
problème.
En effet la
géologie
est une
morphologie,
une
géophysique
et une
géochimie;
elle est fille
directe des
sciences
physiques et
donc de leur
déterminisme
et surtout de
la
réversibilité
des lois. La
géologie
historique se
contente
très
bien d'un
postulat d'actualisme.
La biologie,
avec son
indéterminisme
et surtout
l'irréversibilité
de ses
phénomènes,
fait mauvais
ménage
avec la
géologie.
Toute l'évolution
est
profondément
rebelle
à un
déterminisme
mais ce n'est
pas une raison
pour rejeter
la
causalité
et invoquer un
hasard
mystificateur.
La
reconstitution
des
événements
biologiques
passés
(la
paléontologie
au sens le
plus large)
échappe
à
l'expérience.
L'article
de Pierre
LAZLO paru en
1997 dans La
Recherche
est toujours
d'actualité
même si
les questions
philosophiques
se posent
maintenant de
façon
plus claire: Origine
de la vie:
100.000
milliards de
scénarios,
Pierre LAZLO,
296, mars
1997, 26-28.
Mais ce qui
change c'est
le statut de
l'expérience
et
l'importance
donnée
au
modèle
(voir
ci-dessus).
Mais les
choses
changent
vite...
de paradigme
est
vécu
non pas par
une
élite
intellectuelle
(nationale ?)
mais par une
communauté
mondiale
d'horizons
très
divers et peu
structurée...
On
ne
résume
pas en
quelques
lignes des
années
de
réflexions
et de
recherche, il
faut donc lire
(et relire)
Nissim
Amzallag (puis
se mettre au
travail).
Sa
démarche
est
profondément
originale :
elle repose
sur la
considération
de la
réelle
individualité
du vivant (LRM***
). Ce concept
laisse la
place dans son
second ouvrage
à la dissociation
autonome
(HVPAV****)
qui
désigne
l'émergence
d' «un
tout
cohérent
à
partir d'une
population de
molécules,
d'organites,
de cellules,
d'organes ou
même
d'individus.»
Cet auteur
veut rendre
à
l'être
vivant son
autonomie, que
l'on puisse
s'émerveiller
devant sa
capacité
d'adaptation
qui est une
propriété
de l'individu,
du vivant et
non le
résultat
d'une
quelconque
chaîne
d'interactions
qui aboutirait
au
comportement
stéréotypé
d'un
organisme-machine.
je reste donc
simplement
attentif et
disponible en
faisant appel
à tous
mes lecteurs
(pierre point
stouff at
libertysurf
point fr)...
Biologie du
développement,
S.Gilbert, De
Boeck, 2004
- approche
anatomique
comparative:
c'est avant
tout l'observation
(à
l'œil nu
ou au
microscope,
avec ou sans marquage
des cellules (d'abord
par des
colorants puis
par des
éléments
radioactifs ou
immunologiques...)
qui permet de
suggérer
des
hypothèses
qui se fondent
sur des
analogies:
par exemple la
théorie
de Von Baer
sur
l'existence de
trois
feuillets
embryonnaires
(ecto-,méso-
et endoderme,
découverts
chez l'embryon
de poulet par
Pander)
communs aux
embryons de
vertébrés.
Le domaine
médical
n'est pas
oublié.
Il concerne
notamment
l'étude
des agents
tératogènes
(qui
provoquent des
malformations
au cours du
développement)
et se
développe
avec des
comparaisons
chez l'animal
(on parle de
modèle
animal). Dans
le cadre des
analogies, on
peut citer les
modèles
mathématiques
du
développement
qui
progressent.
Le plus connu
est le
modèle
de Turing de
réaction-diffusion
qui, dans une
vision
chimique des
interactions
entre
populations
cellulaires,
présente
par exemple
une simulation
de la
pigmentation
de certains
organismes
(poisson
zèbre,
gastéropode
Oliva
porphyria...).
- approche
anatomique
évolutive
(traduit
en évolutionnaire):
les
comparaisons
faites
à
partir des observations
sont cette
fois
interprétées
à
l'aide
d'analogies
mais aussi d'homologies
dans le sens
où l'on
considère
une origine
commune pour
deux
structures
similaires
dites
homologues.
Cette origine
commune a
d'abord
été
présentée
comme une
origine
strictement
embryonnaire,
sans
référence
à
l'évolution
(lois de Von
Baer, 1828; que
l'on trouve
bien
exposées
dans le livre
de Gilbert
cité
ci-dessus, pp
8-9).
Puis à
partir du
moment
où l'on
a
considéré
que «
La
communauté
de
conformation
embryonnaire
révèle
donc une
communauté
d'origine»
selon les mots
de Darwin (On
the Origin of
Species,
1859,
dans la
conclusion de
la traduction
française
disponible
gratuitement
sur internet
http://abu.cnam.fr/cgi-bin/donner_html?espece1;
on notera
aussi sa
remarque sur
les structures
homogènes,
terme pris
dans le
même
sens qu'ici),
l'homologie
est devenue
synonyme de
parenté
évolutive,
idée
qui est
reprise de
façon
rigoureuse
dans la
terminologie
cladiste (voir
page sur le cladisme)
par le terme
d'homologie
de filiation ou
homologie
secondaire
(deux
caractères
sont
homologues
s'ils sont
portés
par deux
individus
ayant une
ancêtre
commun
exclusif).
On
notera que les
homologies
sont de
l'ordre de
l'organisation
(anatomie) et
non de la
fonction (on
ne compare pas
deux ailes
dans le cas
des membres
antérieurs
de
chauve-souris
et d'oiseau;
l'adaptation
au vol est une
autre
question).
* l'approche
génétique
est
expérimentale
mais elle se
focalise sur
les
explications
de type
génétique
(que l'on
pourrait
résumer
ainsi: "le
phénotype
résultant
du
génotype
sous le
contrôle
environnemental").
Remarque:
l'approche
génétique
n'est pas du
tout une
approche
chimique.
C'est faire
preuve
d'aveuglement
que de penser
que
sélectionner
un type
cellulaire
modifié
génétiquement
n'est qu'une
manipulation
de la
séquence
de l'ADN; il
est plus que
probable
qu'une cellule
mutante
sélectionnée
diffère
de la cellule
originelle par
bien autre
chose qu'une
seule
séquence
d'ADN .
+
L'approche
expérimentale
comparée
à une
"enquête*
scientifique"
selon S.
Gilbert
- la
corrélation:
c'est la
preuve la plus
faible. Deux
événements
successifs
dans le temps
par exemple
peuvent
être
reliés
par une
relation de
causalité
(efficiente).
Deux
événements
simultanés
peuvent avoir
une cause
(efficiente)
commune.
- indice
par perte de
fonction
: cette preuve
est plus forte
que la
corrélation
mais sa
reproductibilité
doit
être
testée
avec soin et
il est
difficile de
savoir si la
fonction
perdue est
bien la seule
touchée.
- indice
par gain de
fonction
; cette preuve
est
considérée
comme la plus
fiable.
Récréation:
Savourez la
science comme
découverte
avec
une séance
de la
Société
française
de philosophie
qui accueille
Étienne
Wolff le
26 fév.
1966 autour du
thème :
"Le climat
de la
découverte
en biologie".
Intervenants:
Mme
Weill-Brunschvicg,
MM.
Canguilhem,
Dreyfus-Lefoyer,
Dr. Guibert,
Guillet,
Hyppolite, Dr
Minkowski,
Schuhl et
Wahl. Télécharger
directement le
texte
(pdf)