Quand l’industrie informatique américaine doute…
S’il est incontestable que les Etats-Unis sont à l’origine de la révolution informatique, ce qui leur a assuré la première place dans ce secteur, il n’est pas sûr qu’ils maintiennent leur avantage à l’avenir. En cause : les carences du système éducatif.
Aussi étonnant que cela puisse paraître, les responsables des grands groupes informatiques américains s’inquiètent d’un possible déclin de l’industrie informatique aux Etats-Unis. C’est ce qui ressort d’un débat consacré au thème de l’innovation organisé à l’occasion du forum des développeurs Intel, et dont Infoworld s’est fait l’écho. Ce débat réunissait, entre autres, des dirigeants d’Intel, IBM ou Sun Microsystems. Selon eux, c’est la capacité à innover du secteur high-tech américain qui est menacée. « Je ne pense pas que le renouveau de l’industrie informatique concernera les Etats-Unis. En fait, l’industrie informatique américaine pourrait même entrer dans une phase de stagnation voire de déclin durable », a indiqué en substance un dirigeant d’Intel. Et de pointer comme cause à ce déclin un autre déclin, dont la responsabilité incombe au pouvoir politique : celui du système éducatif, en comparaison avec ceux d’autres régions du monde. Le résultat est que les informaticiens étrangers sont d’un meilleur niveau que leurs homologues américains. Autre problème : la crise des vocations chez les jeunes pour les professions scientifiques et techniques. Cet état de fait amène les grands groupes informatiques à délocaliser leur recherche et développement, moins dans le but de réaliser des économies que d’aller chercher les talents là où ils se trouvent. Si les grandes entreprises ont les moyens financiers de multiplier les implantations hors des Etats-Unis, les entreprises de plus petite taille n’ont évidemment pas cette possibilité, ce qui peut entamer leur pouvoir d’innovation. A contrario, l’Europe est perçue comme un foyer d’innovation, notamment grâce à l’apport des pays de l’Est (voir édition du 12 septembre 2003).