Passer au contenu
Mon compte
Wishlist
Panier 00:00

Complexité aléatoire et complexité organisée

1.0

(2)

Audience : Adulte - Haut niveau
Le Pitch
4e de couverture Les notions de complexité, d'organisation et d'information, sont omniprésentes dans de très nombreux domaines, notamment en biologie où les deux premières sont d'usage ancien. Elles ont la propriété commune d'être mal définies, et leur emploi, en général assez flou, est pourtant indispensable. Ces notions n'ont vraiment commencé à être comprises en mathématiques que dans le cours du vingtième siècle. En particulier, les tentatives de mathématisation de l'opposition intuitive entre le simple et le complexe ont abouti vers 1965 grâce à la théorie algorithmique de l'information de Gregory Chaitin et Andreï Kolmogorov, théorie elle-même fondée sur les progrès de l'informatique théorique. Cette théorie définit la complexité d'un objet par la taille du plus court programme qui permet d'engendrer cet objet. Elle prend en compte et mesure toutes sortes de redondances et de régularités dans les objets auxquels on l'applique. L'utilisation des algorithmes de compression sans pertes permet son application et conduit en particulier à de nouvelles méthodes de classification. Ces avancées ont conduit Charles Bennett à donner unsens rigoureux à la distinction naturelle entre complexité aléatoire et complexité organisée, qui jusque-là échappait à la formalisation. La notion qu'il introduit - le concept de profondeur logique - vient compléter et enrichir la théorie et résoudre plusieurs questions délicates. Ce nouveau concept est sans doute promis à jouer un rôle important dans de nombreuses disciplines. ,PrésentationOn entend souvent dire aujourd'hui que la complexité est devenue un problème fondamental de la science contemporaine, car toutes les disciplines y sont confrontées, et cela sous une multitude de formes. Avant de pouvoir confirmer une telle affirmation, une série de questions se posent : Qu'est-ce que la complexité ? Y a-t-il un concept précis derrière le mot ? Que nous disent les mathématiques sur de possibles définitions formelles ? Quelles sont les conséquences et les applications du travail de définition théorique ?Ces questions, qui trouvent leur réponse dans ce livre, intéresseront à la fois les mathématiciens, les statisticiens, les biologistes et tous les étudiants des grandes écoles d'ingénieur, mais aussi tous ceux qui veulent comprendre la philosophie des sciences contemporaines dont l'un des buts est de saisir la nature profonde du hasard et de la complexité. Afficher moinsAfficher plus

Complexité aléatoire et complexité organisée

1.0

(2)

7,95 €
8,60 € -7%
Sélectionnez la condition
 
Il ne reste plus que 1 exemplaire(s) en stock
7,95 €
8,60 € -7%

Le Pitch

4e de couverture Les notions de complexité, d'organisation et d'information, sont omniprésentes dans de très nombreux domaines, notamment en biologie où les deux premières sont d'usage ancien. Elles ont la propriété commune d'être mal définies, et leur emploi, en général assez flou, est pourtant indispensable. Ces notions n'ont vraiment commencé à être comprises en mathématiques que dans le cours du vingtième siècle. En particulier, les tentatives de mathématisation de l'opposition intuitive entre le simple et le complexe ont abouti vers 1965 grâce à la théorie algorithmique de l'information de Gregory Chaitin et Andreï Kolmogorov, théorie elle-même fondée sur les progrès de l'informatique théorique. Cette théorie définit la complexité d'un objet par la taille du plus court programme qui permet d'engendrer cet objet. Elle prend en compte et mesure toutes sortes de redondances et de régularités dans les objets auxquels on l'applique. L'utilisation des algorithmes de compression sans pertes permet son application et conduit en particulier à de nouvelles méthodes de classification. Ces avancées ont conduit Charles Bennett à donner unsens rigoureux à la distinction naturelle entre complexité aléatoire et complexité organisée, qui jusque-là échappait à la formalisation. La notion qu'il introduit - le concept de profondeur logique - vient compléter et enrichir la théorie et résoudre plusieurs questions délicates. Ce nouveau concept est sans doute promis à jouer un rôle important dans de nombreuses disciplines. ,PrésentationOn entend souvent dire aujourd'hui que la complexité est devenue un problème fondamental de la science contemporaine, car toutes les disciplines y sont confrontées, et cela sous une multitude de formes. Avant de pouvoir confirmer une telle affirmation, une série de questions se posent : Qu'est-ce que la complexité ? Y a-t-il un concept précis derrière le mot ? Que nous disent les mathématiques sur de possibles définitions formelles ? Quelles sont les conséquences et les applications du travail de définition théorique ?Ces questions, qui trouvent leur réponse dans ce livre, intéresseront à la fois les mathématiciens, les statisticiens, les biologistes et tous les étudiants des grandes écoles d'ingénieur, mais aussi tous ceux qui veulent comprendre la philosophie des sciences contemporaines dont l'un des buts est de saisir la nature profonde du hasard et de la complexité. Afficher moinsAfficher plus

Détails du livre

Titre complet
Complexité aléatoire et complexité organisée
Editeur
Format
Broché
Publication
14 mai 2009
Audience
Adulte - Haut niveau
Pages
76
Taille
19 x 12 x 0.5 cm
Poids
90
ISBN-13
9782759203208

Contenu

4ème de couverture

Les notions de complexité, d'organisation et d'information, sont omniprésentes dans de très nombreux domaines, notamment en biologie où les deux premières sont d'usage ancien. Elles ont la propriété commune d'être mal définies, et leur emploi, en général assez flou, est pourtant indispensable.Ces notions n'ont vraiment commencé à être comprises en mathématiques que dans le cours du vingtième siècle. En particulier, les tentatives de mathématisation de l'opposition intuitive entre le simple et le complexe ont abouti vers 1965 grâce à la théorie algorithmique de l'information de Gregory Chaitin et Andreï Kolmogorov, théorie elle-même fondée sur les progrès de l'informatique théorique.Cette théorie définit la complexité d'un objet par la taille du plus court programme qui permet d'engendrer cet objet. Elle prend en compte et mesure toutes sortes de redondances et de régularités dans les objets auxquels on l'applique. L'utilisation des algorithmes de compression sans pertes permet son application et conduit en particulier à de nouvelles méthodes de classification.Ces avancées ont conduit Charles Bennett à donner un sens rigoureux à la distinction naturelle entre complexité aléatoire et complexité organisée, qui jusque-là échappait à la formalisation. La notion qu'il introduit - le concept de profondeur logique - vient compléter et enrichir la théorie et résoudre plusieurs questions délicates.Ce nouveau concept est sans doute promis à jouer un rôle important dans de nombreuses disciplines.Biographie de l'auteurProfesseur d'informatique à l'Université des sciences et technologies de Lille, et chercheur au laboratoire d'Informatique de Lille du CNRS.

Auteur

Livré entre : 19 février - 22 février
Disponible chez le fournisseur
Impression à la demande
Expédition immédiate
Chez vous entre :
Les délais de livraison ont tendance à s'accélérer ces dernières semaines, le temps indiqué peut être plus court que prévu. Les délais de livraison ont tendance à s'allonger ces dernières semaines, le temps indiqué peut être plus long que prévu.
Livraison gratuite (FR et BE) à partir de 29,00 € de livres d'occasion
Retour GRATUIT sous 14 jours.
Image to render

Revendez-le sur notre application!

Aller plus loin

Vous pouvez également aimer

Récemment consultés