|<- [[The Is-Ought Problem]]|[[Moral Relativism]] ->| ====== Quelles sont les théories morales ? ====== **Nous avons vu que les théories scientifiques n’étaient pas ‘juste’ des théories, dans le sens de généralisation vagues, hypothétiques et non testées. Elles englobent au contraire de nombreuses preuves, basées sur des observations répétées, intègrant et généralisant des hypothèses, et permettant de faire des prédictions précisent autour d’un large champs de recherche scientifiques.** Les théories morales ne sont pas non plus ‘juste des théories’ dans le sens péjoratif du terme. Elles sont elles aussi basées sur des observations répétées, et prones à intégrer des hypothèses, et tentent d’expliquer et justifier un ensemble de jugements éthiques et moraux concernant des cas particuliers. Mais les théories morales ne sont pas exactement des théories scientifiques. Les données que les théories scientifiques tentent d’expliquer sont fournies par l’observation du monde naturel. Les données que les théories morales tentent d’expliquer sont nos jugements moraux considérés (//our considered moral judgements//); des jugements moraux qui on, pourrait-on dire, survécu aux tests de la pensée critique et logique. Il y a une différence évidente ici. Dans le cas des théories morales, on utilise les jugements considérés pour fournir les données par lesquelles l’on va juger du caractère adéquat des théories morales. Malgré cela, même en tenant compte de ces différences, nous utilisons bien des théories morales, et souvent de manière très similaire à leur contreparties scientifiques. Pour l’utilitarisme (//‘act utilitarim’//) par exemple, la bonne action est celle qui génère le plus d’utilité, comprise par ses premiers théoriciens (//early proponents//) comme le plus de bonheur pour le plus grand nombre de personnes. La théorie affirme que les bonnes actions ont une propriété commune - leur tendance à générer de l’utilité générale. L’utilitarisme préserve un nombre de jugements considérés comme clés : il paraît clair que les conséquences des actions importent dans leur status moral; cette utilité, ou bonheur, est importante; la moralité devrait s’intéresser non seulement à quelques uns mais a tous ceux affectés par une action. Et cela nous fournis des éléments de gudiage utiles : si nous décidons de construire des opéras ou des stades de football, l’utilitarisme peut nous dire non seulement quelle action est la bonne, mais - supposant que nous pouvons déterminer le bonheur créé par chacun des options - comment déterminer cela. Toutefois, nous avons plausiblement un jugement moral étudié qui est qu’il n’est pas acceptable de traiter quelqu’un juste comme une ressource pour améliorer la situation d’autres, et bien que l’utilitarisme préserve différents jugements moraux considérés, il a des difficultés a préserver celui-ci. Supposons que je me trouve dans un hopital pour une procédure mineure au même moment que cinq personnes blessées dans un grave accident de bus. Il pourrait être vrai que faire don de mes organes pour sauver ces cinq personnes créerait davantage de bonheur que de me soigner et me renvoyer chez moi. Bien sûr, le malheur créé par mon trépas et mon démembrement devrait être pris en compte dans le calcul utilitariste, mais il paraît plausible que le malheur de ma famille pourrait être ratttrapé par le bonheur des familles des cinq receveurs de greffe et leurs familles. En réponse à l’apparent conflit de l’utilitarisme avec le jugement étudié qui dit que nous ne devrions pas utiliser les personnes comme de simples ressources, les théoristes de l’utilitarisme proposent des amendements, calculant l’utilité non pas d’actes particuliers mais de règles générales (//to get rule utilarianism///pour réguler l’utilitarisme ?), ou de rejeter purement et simplement l’utilitarisme. Dans les deux cas, ils répondent de bien des manières similairement aux scientifiques lorsque des théories sont incapables d’expliquer des données. Une importante théorie alternative répond au fait que l’utilitarisme fait dépendre l’exactitude morale de ce qui rendrait effectivement les gens heureux. D’après Emmanuel Kant, le principe ultime de la morale doit être capable de nous guider vers la bonne action en toutes circonstances. Il nous propose de nous demander si les motif pour lesquels nous considérons d’agir peuvent devenir une loi universelle, une loi qui pourrait être suivie par n’importe qui dans la même situation. Il s’intéresse à la ohérence (//consistency//) et à la rationalité, et non aux conséquences. Pour EK, il pourrait ne pas être moral de tenir une promesse tout en prévoyant de ne pas la respecter, car ne pas respecter les promesses, comme règle, serait incohérent avec l’idée même de promesse : des personnes rationnelles ne peuvent pas vouloir qu’une telle pratique devienne une loi universelle. Mais il est facile d’imaginer des cas dans lesquels la règle absolue de Kant entrerait en conflit avec les jugements moraux considérés. Ne devrions-nous pas ne pas respecter une promesse si la tenir amènerait des conséquences très négatives ? Une autre théorie alternative minimise l’importance des règles et principes, et met l’emphase sur la ‘sagesse pratique/sens pratique’ (//‘practical wisdom’//) dans les cas particulier. La bonne action, d’après la théorie de la vertu aristotélicienne, est l’action qui serait choisie par un agent disposant de sagesse pratique. Mais comment identifier la personne possédant cette sagesse pratique ? On peut faire cela en voyant si elle choisit la bonne action, étant donné que la bonne action est celle qu’elle choisit ! (Si l’on peut déterminer si elle a choisit la bonne action ou pas sur d’autres bases - la maximisation de l’utilité ou le respect des personnes, peut-être ? - //cela// serait le test pour la bonne action, pas le choix de la personne ayant la sagesse pratique). Et ainsi de suite, avec des théoriciens de la morale alendant des théories et proposant des alternatives. Ce sont toutes des ‘théories’ dans notre sens. Elles proposent des exemples généraux de ce qui fait une bonne action, comptant sur autant de nos jugements considérés que possible (comme les scientifiques essayent d’expliquer autant d’observations que possibles), appelant parfois a abandonner certains de ces jugements (comme les scientifiques peuvent rejeter certaines observation sou hypotèses comme étant érronées), essayant d’expliquer pourquoi un jugement dans un cas passé est //troubling// ( perturbant ?) et comment il devrait être jugé dans le futur. Il existe toutefois une autre considération important en laquelle les théories morales diffèrent des théories scientifiques. En science, on suppose qu’il y a une bonne théorie qui explique toutes les données et amènera probablement à abandonner les théories rivales (bien qu’elle puissent avoir intégré des parts signifiantes de celles-ci). LEs théories morales ne semblent pas vraiment marcher comme cela. Elles sont générées par nos jugements moraux considérés et reflètent, par exemple, le jugement que les conséquences importent; que la reconnaissance et le respect des agents autonomes et raisonnant importe; que la sagesse et le jugement importent. Les théories morales nous permettent de voir les implications des jugements que ces éléments (et d’autres préoccupations fondamentales) sont important en raisonnement moral. Peut-être que comme résultat, les théories morales sont dans le passé récent devenues pour regardantes sur l’incorporations d’//insights// de ce qui était précédemment considéré comme des théories concurrentes. Il est possible que cette tendance amène à l’émergence d’une théorie plus large, unifiée. Si c’est le cas, cela sera parce que la nouvelle théorie pourra s’accomoder bien mieux d’intuitions contributives (//contributing intuitions//) que les alternatives plus réductrices (//narrower alternatives//).