Archives pour la catégorie Innovation

Interculturel en entreprise, un ouvrage

Cet article est une note de lecture de l’ouvrage de Danielle Leeman, Alain Cazade, Jean-François Chanlat, Gilles Louÿs, Sébastien McEvoy, dirs, L’interculturel en entreprise : quelles formations ? Aspects civilisationnels, économiques, historiques, juridiques, linguistiques. paru aux éditions de Limoges, Lambert-Lucas, col. Info-com, en 2011.

Une version de ce commentaire est paru dans :

Question de Communication, numéro 26-2014

Signé Alain Cazade et Danielle Leeman, l’avant-propos (pp. 9-11) annonce la couleur : « Le lieu d’une recherche spécifique et incontournable, dans le contexte actuel, se dessine ainsi, comme l’importance à lui donner dans les formations dispensées par l’Université » (p. 11). À ce titre, ce livre s’adresse à tous ceux qui, de près ou de loin, traitent de ce sujet ou sont confrontés à ce thème dans leur pratique. Cet avant-propos contient une liste à la Prévert de comportements culturels qui peut servir d’introduction à des cours sur le sujet de l’interculturalité. Quelques pages plus loin, Cornelius Crowley évoque les topoï, sujet bien connu des hommes du marketing (pp. 12-13). C’est également le prétexte invoqué par les auteurs pour s’intéresser à ce sujet.

L’article de Danielle Josèphe (pp. 63-70) commence par une reprise de la définition de Louis Porcher dans La Civilisation (1986, Paris, Éd. Clé) : « Interculturelle est l’attitude qui consiste à construire entre des cultures différentes des relations de réciprocité c’est-à-dire de connaissance mutuelle, connaissance étant prise ici au sens de saisie des lois de fonctionnement de chacune des cultures considérées » (p. 63). Signée Cornelius Crowley, la préface (pp. 11-16) souligne le fait que « la culture est une affaire d’entre » au même niveau que les termes d’intérêts et d’intéressement (p. 11). Pour lui, il ne s’agit pas seulement d’une affaire d’entre soi, mais aussi d’une affaire « d’entremise et d’entreprise » (p. 11).

Le sujet abordé par Danielle Josèphe concerne l’interculturel dans l’enseignement du français langue étrangère ou seconde. Ce sujet impose de différencier les notions d’interculturel et de multiculturel. Pour cela, elle utilise le concept de Martine Abdallah-Pretceille qui distingue l’interculturel, soit une construction susceptible de favoriser la compréhension des phénomènes sociaux et éducatifs en liaison avec la diversité culturelle, et par ailleurs le multiculturel qui n’a quant à lui pas de vision éducative, mais qui reconnaît la pluralité des groupes et veut éviter leur éclatement (p. 65). Cette distinction semble approfondie par Mehdi Majidi (pp. 81-85). L’organisation doit alors évoluer en trois niveaux. Le local, premier niveau ; c’est celui où le facteur interculturel est important. Ensuite, l’organisation doit intégrer des valeurs stratégiques où la diversité culturelle devient importante. Enfin, l’organisation cherchera la source de son avantage concurrentiel en répondant à des demandes multiculturelles. Concernant les compétences à acquérir en termes d’interculturalité, Maria del Carmen Méndez García nous propose le modèle icopromo (intercultural competence for professional mobility) (pp. 87-92), tandis que le texte des consultants Nicolas Delange et Philippe Pierre (pp. 99-108) invite à réfléchir sur les compétences nécessaires pour les cadres mobiles dans un contexte multiculturel. Ces deux auteurs utilisent la notion de compétence culturelle de Philippe Laurent et Yih-Teen Lee (2005, « Comment appréhender la compétence interculturelle », Revue économique et sociale, 3, sept., pp. 13-21), soit « l’ensemble des connaissances, habilités, capacités et compréhensions qui permettent à une personne qui possède ces qualités de comprendre les comportements, les valeurs et les approches de vie des peuples différents que soi-même, et d’agir de manière acceptable par d’autres pour faciliter la communication et la collaboration » (pp. 103-104). Sans en faire la vraie démonstration, ils concluent qu’il n’y a pas de compétences culturelles, sinon des compétences sociales (pp. 99-107). Dans la même veine, Gilles Louys défend l’idée que ce qui est le plus important, ce n’est pas l’interculturel, mais plutôt l’intercivilisationnel (pp. 109-114). À partir de son expérience d’enseignement des langues dans des écoles d’ingénieur, Didier Bottineau (pp. 115-126) insiste sur l’importance de la pratique de la langue.

Evelyn Odonkor (pp. 17-20) a étudié les publicités destinées aux enfants en France, au Ghana et aux États-Unis selon sept axes : l’accomplissement, le bonheur, l’amusement, la force, l’héroïsme, l’humour et la relation adulte-enfant. Parmi eux, seuls les quatre derniers varient en fonction des cultures. L’humour est le seul s’avérant très différent. Par exemple en France, il est possible de se moquer des enfants et des adultes dans les contenus publicitaires, alors que cela ne concerne que les adultes aux États-Unis et que toutes formes de moqueries sont proscrites au Ghana, pays où l’adulte est la personne qui sait ce qui est le mieux pour la famille.

L’article de Patricia Gutiérrez et de Mercé Pujol Berché (pp. 21-31) réalise une analyse intéressante de l’interculturalité dans le groupe d’hôtels Accor entre la France et l’Espagne. Pour ce faire, les deux auteures utilisent pour l’interprétation la notion de chaîne d’action de Hall et Hall (Hall E. T., Hall M. R., 1987, Guide du comportement dans les affaires internationales, trad. de l’américain par E. Jacquemot, Paris, Éd. Le Seuil, 1990). Il s’agit d’un ensemble d’évènements auxquels une ou plusieurs personnes participent. Le texte de Fabien Blanchot (pp. 33-44) s’intéresse aux alliances d’entreprises ; il prend comme support celle de Nissan et Renault. Il propose une liste d’effets des différences culturelles : incompréhension, factionnalisme ou clanisme, déstabilisation managériale. À partir d’une analyse de la littérature, il liste les effets vertueux des alliances interculturelles, ainsi que leur cause. Le management interculturel est alors proposé comme une quadruple action : intégratrice, de sensibilisations aux différences, de connaissance et d’appui sur les similitudes, de développement de compétences d’action. Cette contribution analyse ensuite 14 leviers d’action utilisés dans le cas de l’alliance Nissan-Renault. L’étude de cas de Jean-Pierre Segal (pp. 51-61) sur le transfert du cadre institutionnel métropolitain des relations de travail dans le cadre de la Nouvelle-Calédonie est à la fois captivante, passionnante et témoigne en outre d’un vécu. Sa conclusion est aussi d’une grande valeur et se décompose en trois points : la place de l’école dans ce processus, l’importance des autres variables et la nécessité de recherche-action dans ce domaine. Cette thèse sur l’importance du rôle de l’école est reprise par Danielle Josèphe qui montre comment intégrer l’interculturel dans l’enseignement du français langue étrangère et seconde. En revanche, dans son étude du cas d’une entreprise franco-latino-américaine de parfumerie, Emmanuel Sauvage (pp. 93-98) montre l’importance de la compréhension réciproque.

Diana Balaci (pp. 77-80) explique comment l’interculturalité est apparente dans les bâtiments de l’Institut français de Bucarest. Simon Bouquet (pp. 127-142). utilise comme support de ces démonstrations la Déclaration universelle des droits de l’homme dont il fait une intéressante analyse sémantique.

Ce livre contient des articles de qualités inégales. L’article sur l’interculturel franco-allemand et les styles de management dans les firmes multinationales de Véronique Boirie (pp. 45-50) ne fait aucune référence aux nombreux travaux sur ce sujet liés aux rapprochements européens ou aux tentatives échouées dans le domaine de la construction de matériel de transport, de la pharmacie, des télécommunications et de l’informatique. La conclusion est alors banale ou évidente, selon de quel point de vue on se place : « Les logiques de fonctionnement dans les groupes étudiés sont différentes selon le rapport au pouvoir et à l’autorité et posent la question du rôle des managers et de leur manière de le vivre selon la culture nationale d’origine » (pp. 45-50). L’article de Gilles Lecointre (pp. 71-76) apporte peu d’éléments au débat, mise à part une idée assez éloignée qui est celle de l’instauration d’un contrat d’emploi à long terme dans l’entreprise (celte).

Notons également des pratiques d’autocitations présentées comme des évidences de lecture, lesquelles dans les faits sont improbables, notamment dans le texte de Patricia Gutiérrez et de Mercé Pujol Berché, celui de Fabien Blanchot. Ces auteurs ont du mal à faire croire qu’ils sont mondialement célèbres et que tout le monde a lu leur prose. Les phrases du type « La présente contribution s’appuie en partie sur moi-même » peuvent être mal appréciées par le lecteur intéressé par ce sujet.  

Sur le plan de la forme, l’article de Maria del Carmen Méndez García (pp. 87-92) rédigé en espagnol aurait mérité un résumé en français ou en anglais. Pour éviter la répétition des mêmes auteurs comme Philippe d’Iribarne, Geert Hofstede, Luc Boltanski et Ève Chiapello…, une bibliographie commune aurait pu être présente, d’autant plus que la forme des bibliographies est différente d’un article à l’autre. Sur ce sujet, de trop nombreuses citations d’auteurs ne sont pas présentes dans la bibliographie. Mentionnons par exemple « (Jamet, 2009) » dans l’article de Didier Bottineau (p. 125).

Le livre se termine par deux points de vue apportés, d’une part, par les acteurs du master Interculturel et international de l’université Paris Ouest Nanterre La Défense et, d’autre part, par ceux du master Management interculturel de l’université Dauphine. Signalons la vision réaliste de ces acteurs qui s’interrogent notamment sur les relations entre les formations et les entreprises et sur la réalité concrète des modèles universels de gestion. Ces résumés et commentaires sont d’excellents apports pour guider le lecteur dans la lecture du volume, tant les différences sont réelles.


 

Marketing ! Un nouvel ouvrage…

etudes de marché

Mon ouvrage réalisé avec Laurent Bister vient de sortir

Le marketing des objets technologiques et des services numériques

 

ou encore :

https://www.facebook.com/pages/Le-marketing-des-objets-technologiques-et-des-services-numériques/1490341717848621

En vente chez Amazon et dans toutes les bonnes librairies!

http://www.amazon.fr/marketing-objets-technologiques-services-numériques/dp/1784050148/ref=sr_1_5?ie=UTF8&qid=1401645015&sr=8-5&keywords=bruno+salgues

 

La servicisation, c’est quoi?

La société de service dans laquelle nous sommes est à n’en pas douter, liée au ralentissement de l’innovation dans les produits. C’est pour cette raison que les acteurs industriels s’engagent dans une « servicisation » des produits et de la production.

 

La notion de « servicisation »

 

Cette « servicisation » se résume selon un nouveau schéma en trois points décrits ci-dessous :

 

Type Description
Production Recherche de la performance dans la productionSe renforcer, la « servicisation » est vue comme un facteur fondamental de la production.
Organisation Disposer d’un moyen de développer des architectures institutionnelles adaptées pour des industries futures
Produits et services Combiner des systèmes de produits et des services en utilisant les technologies de l’information et de la communication avec un objectif mondial

Tableau 1 : Logique de la servicisation

 

la nature de la « servicisation »

 

La nature de cette « servicisation » est l’innovation et le design de service, cette notion se distingue du « servicising » et de la « servuction ».

 

Le « servicising »

 

Dans sa littérature managériale, le « servicizing »  a été défini simplement comme « la vente d’un service au lieu d’un produit » (Makower, 2001) ou comme « la vente d’une fonction d’un produit ou d’un service fournit, plutôt que le produit physique » (Fishbein et autres, 2000). Le leasing d’un produit pour lequel on vend la location de son usage est l’exemple proposé et étudié par Fishbein. Pour ces auteurs, le principal avantage du « servicizing » est la réduction des coûts de transaction (transaction cost economics  ou TCE). Toutes les études qui ont concerné cette approche consistaient à observer les deux cas de figure pour lesquels) le « servicizing » provenait plutôt des entreprises ou des organisations qui sont demandeuses d’une réduction des coûts de transaction, ou au contraire des consommateurs perdus dans les offres multiples.

 

Différentes formes de servicising

 

En ce qui concerne le service, un modèle d’acquisition basé sur la location de services et non d’achat apparaît. Le modèle business devient alors fondé sur le paiement à l’usage. Le modèle d’accès fonctionne sur Internet sur n’importe quel terminal. Le modèle technique se définit comme étant  à la demande, « scalable », partageable. Cette forme était vendue, il y a quelques années sous le nom de « service bureau ». Elle a été rebaptisé récemment « cloud computing ». Différents facteurs favorisent l’émergence de ce nouveau modèle[1].

 

Facteurs Commentaires
Normatif Émergence de l’Internet des services, standard nouveau du web
Technologique Virtualisation (tolérance aux pannes), importance des réseaux (disponibilité, débit, latence), Latence faible des fibres et de la 4G
Economique Crise économique, compétition, concurrence, développement durable
Usages Acces anytime anywhere and any device  (ATAWAC) » , payment à l’usage

Tableau 2 : Caractéristiques fonctionnelles du Cloud Computing

Une nouvelle difficulté provient du risque de « remplissage des tuyaux ». En l’occurrence, il convient de répondre à l’adage : « Exposer la simplicité, cacher la complexité ». Trois types de solutions sont possibles :

 

-           Software as a service (SaaS) centré sur les applications, les services, les magasins applicatifs,

-           Platform as a Service (PaaS) qui fournit des outils,

-           Infrastructure as a service (IaaS) offre des capacités de calcul et de stockage.

 

La « servuction »

 

En créant le mot « servuction », Eiglier et Langeard (1987) ont adopté une conception systémique de la production du service. Ainsi, le service constitue l’objectif et le résultat du système de « servuction » d’un prestataire. La servuction est alors définie comme l’organisation systématique et cohérente de tous les éléments physiques et humains de l’interface client-entreprise, interface nécessaire à la réalisation d’une prestation de service dont les caractéristiques commerciales et les niveaux de qualité ont été déterminés. Lorsque l’on s’intéresse non pas à un produit, mais à un service, il devient nécessaire de distinguer le service principal («core service ») qui est celui qui satisfait le besoin principal du client, et le service auxiliaire ou complémentaire (« peripheral services »). Tous ces services facilitent l’accès au service de base ou ajoutent de la valeur au service défini (Eiglier et Langeard, 1987 ou Grönroos, 1984, 1993, 2000).

 

L’avantage compétitif

 

Michael Porter a défini une théorie de l’avantage compétitif  à partir de la notion de chaîne de la valeur. Il en dégage le fait qu’il n’y a que trois façons de construire cet avantage compétitif : réduction des coûts, différentiation ou concentration sur une niche.

 

 

Les stratégies génériques de Porter sont :

 

La différentiation

 

La stratégie de différenciation vise à obtenir un avantage concurrentiel en se différentiant. Ainsi, il est possible de proposer un produit ou un service à haute valeur ajoutée apparente à une cible large, avec des volumes faibles, mais de fortes marges.

 

La domination par les coûts

 

La stratégie de domination par les coûts vise à réduire les coûts. Ainsi l’avantage concurrentiel est obtenu en proposant un produit à faible coût à une cible stratégique large, avec de faibles marges, mais des volumes importants.

 

La concentration 

 

La stratégie de focalisation vise à obtenir un avantage en proposant un produit ou un service à une cible restreinte, qu’elle soit restreinte localement ou bien en termes de fonctionnalité du produit. Pour ce faire, il faudra adopter une chaîne de valeurs adaptées aux attentes de la cible.

 

Tout le reste n’est qu’enlisement sur la voie médiane.

 

Encadré 1 : Les stratégies génériques de Porter

Ce texte doit beaucoup a mes discussions avec Yoshio Tanaka, Professeur de dynamiques des technologies au  département du  Management des Technologie (MOT), Université des sciences de Tokyo au cours du Global Forum « Shaping the Future 2013, Driving the digital future, strategies to grow stronger communities and businesses », les 28 et 29 octobre 2013, Palazzio dei Congressi della stazione Marittima, Trieste, Italie.



[1] Cette partie provient de l’ouvrage de Bruno Salgues, l’e-santé et la télémedecine, Hermes Lavoisier, 2013

24 heures : Le progrés c’est nous …..

Fondapol, la fondation pour l’innovation politique, organisait le samedi 16 novembre à la mutualité française « 24 heures non stop ». Le thème global était « Le progrès, c’est nous ». Un des thèmes de cette journée était « 100 ans de santé sûre ».

 

Nicolas Bouzou, économiste, nous propose de soigner mieux et pour moins cher. Il nous propose surtout ses services via sa société Asteres.  La proposition du cabinet dans le domaine de la santé est résumée sur son site web par le schéma ci-dessous :

fondapol2013-1

 

Figure 1 : Proposition dans la santé du cabinet Asteres, source cabinet Asteres

Laurent Alexandre, l’un des deux créateurs du célèbre site Doctissimo, se lance dans un nouveau challenge avec d’une part le thème suivant : « La mort de la mort » qui fait référence au titre d’un ouvrage qu’il a publié en 2011. Il prône par ailleurs  la création de la société DNAvision dont l’objectif est de permettre à l’homme de vivre 1 000 ans !

 

Le coup de gueule de Yann Aubé, de la société Celtipharm est quant à lui beaucoup plus intéressant. Yann Aubé veut pouvoir utiliser les données médicales contenues dans les fichiers des caisses d’Assurances maladies. Malgré l’initiative « Open Data », ces données ne sont toujours pas accessibles. L’utilisation de ces données de santé pourrait réduire le nombre des 18 000 morts par an, décès sont liés à des erreurs médicales, des maladies nosocomiales, … Cela permettrait par ailleurs  d’économiser plus de 10 milliards d’euros, ce qui serait en soi positif eu égard à la situation actuelle des finances de la Sécurité sociale.

 

Étienne-Emile Baulieu s’intéresse dans son institut à la maladie d’Alzheimer. Ses travaux portent sur les hormones stéroïdes et leur impact sur la maladie. Le professeur avait montré l’importance du DHEA sur la qualité de la vie des personnes âgées. Parmi ces études, l’une d’entre elles concernant 280 personnes malades ayant entre 60 et 80 ans, traitées par 50 mg de DHEA par jour pendant une durée de un an et plus, a démontré une triple amélioration quant à : la qualité de la peau, de la libido et de la densité osseuse chez la femme ménopausée. La prégnénolone est le précurseur des hormones stéroïdiennes. Cette molécule donne naissance à toutes les autres hormones stéroïdes, tels que le cortisol, l’œstradiol, la progestérone, la testostérone mais aussi le DHEA. La prégnénolone est transformée de façon assez mal connue par le biais de réactions chimiques enzymatique (ce qui reste encore une hypothèse) afin de donner ces dérivés hormonaux. Son niveau dans le corps humain est le plus élevé entre 16 et 17 ans, puis son taux chute fortement pour atteindre son niveau le plus bas vers l’âge de 37 ans. Dans la conférence du Professeur Baulieu, elle apparaît comme une hormone clé dans le développement de la maladie d’Alzheimer.

 

La Faculté de Médecine de l’Université Stanford a publié une étude intéressante dans le Journal of Neuroscience daté du 13 juin 2012. Chez les femmes porteuses d’une variante génétique dite ApoE4, le cerveau montre des changements caractéristiques de la maladie d’Alzheimer, changements visibles avant même qu’un premier  symptôme ne se manifeste. De plus,  les hommes et les femmes qui héritent de deux copies de cette variante génétique (une en provenance de chacun des deux parents) courent un risque très élevé pour ce qui est de contracter la maladie d’Alzheimer. La double possession concerne 2 % environ de la population, et 15 % des personnes sont porteuses d’une seule copie du gène ApoE4. L’étude montre l’existence d’une distinction entre hommes et femmes plus âgés en bonne santé porteurs de ce gène. Dans ce groupe, les femmes et non les hommes, montrent des caractéristiques de la maladie d’Alzheimer. Cependant, pour trois femmes qui seront atteintes, on ne comptera que deux hommes.

 

À ce stade, nombreux médicament comme les statines sont utilisés pour lutter contre le cholesterol. Ces molécules ont pour effet de diminuer la synthèse de prégnénolone. Ne seraient-elles pas à l’origine de l’augmentation des cas de maladie d’Alzheimer ? Ces résultats, dont les premiers sont assez anciens, ne sont pas négligeables en termes de qualité de vie pour les personnes âgées (peut-être notamment pour ce qui est de la femme de plus de 70 ans).

 

fondapol2013-2

Figure 2 : Modèle de la recherche en médecine (on centre ou pas le titre comme plus haut ou pas ?)

 

 

Le diabète est l’une des ces maladies chroniques que nous propose de traiter Séverine Sigrist. Directrice du Centre européen d’étude sur le diabète, elle a fondé la start-up Defymed avec l’ambition de créer un pancréas bio-artificiel. Un beau projet en perspective !

 

La mutuelle Matmut nous propose d’entreprendre autrement et selon deux axes : mettre en place des solutions à l’efficacité démontrée, et par ailleurs servir les hommes. Cette approche a été présentée par Arnaud Chneiweiss.

 

Dans le premier cas, il explique l’exemple des centres de santé Matmut dont l’efficacité est construite sur une idée simple. Il s’agit de construire une chaîne de production de soin la plus intégrée possible. Cette intégration est valable dans la chaîne de prélèvement pour l’analyse biologique, aussi bien que dans les applications informatiques. Pour les médecins recevant les patients, s’ils ont à faire face à des cas difficiles, une « hotline d’expertise » est à leur disposition.

 

Pour servir les sociétaires, a été imaginé un produit mutualiste simple qui permet trois consultations par an sans qu’il ne reste quoi que ce soit à la charge de ce dernier. Cela permet de servir des populations socialement ou financièrement peu favorisées.

 

Watchfrog est le nom de la start-up fondée par Barbara Demeneix, Professeur au Muséum d’Histoire Naturelle. Cette start-up part de la récession du crétinisme dans notre civilisation, récession liée à un constat assez ancien et elle s’insurge contre le phénomène des perturbateurs hormonaux.  Sans un minimum d’hormones thyroïdiennes au bon moment, le têtard de grenouille reste une larve et le bébé humain se retrouve atteint de crétinisme. Ce phénomène de crétinisme étant désormais bien connu, les enfants sont testés dès la naissance et sont traités en conséquence.

 

Un problème nouveau vient de ce que l’on nomme un « perturbateur endocrinien ». Les molécules thyroïdiennes ressemblent à celle des plastifiants, des pesticides, de certains retardants. Elles concernent environ 84 000 produits  de base couramment utilisés. À ce ceci, s’ajoute le manque d’iode dans notre alimentation actuelle.

 

La communauté ne craint-elle pas ce phénomène de crétinisme ? Telle est la question posée par Barbara Demeneix sur ce sujet, sujet qui reste en soi complexe. Un premier travail avait été couronné de succès en 2001 avec la mise au point d’une méthode de fluorescence qui a été largement améliorée dès 2006, puis plébiscitée le 7 février  2013 dans un article de Scientific American. Actuellement 1 enfant sur 6 serait contaminé, ceci étant dû en grande partie au phénomène de l’exposition des femmes au PCB. Une telle exposition correspond à 10 points de Q. I.  perdus pour les enfants en gestation. Il en est de même pour les pesticides et les « retardeurs de flamme[1] ». C’est l’homologie de structure qui fait que ces produits remplacent l’hormone thyroïdienne. Eu égard aux enjeux financiers et économiques que représentent ces molécules, un premier travail serait de faire un criblage des matières les plus dangereuses.

 

Alors que le pourcentage de crétinisme diminue, la chercheuse constate l’augmentation de l’autisme. Si l’autisme augmente, la France passera de 6 millions  d’enfants « doués » (dotés de capacités supérieures à la moyenne) à seulement 2 millions d’enfants doués, ce qui représentera un coût, sans compter les effets sociaux qui en résulteront.

 

« Santé active » est un programme des Caisses d’assurance maladie, lesquelles doivent faire face à une butée des possibilités assurantielles avec une dette sociale de 160 milliards d’euros qui provient principalement du développement des affections chroniques. Patrick Négaret, un des Directeurs de caisse, a présenté le programme « Santé Active ». Il s’agit de faire en sorte que l’on soit, selon ses termes,  dans une « situation de santé  active et pas assurance maladie ». La caisse a créé des outils pour cela : éléments de communication ou ateliers de coaching sur des thèmes comme la santé du dos, la santé du cœur, … Sur la population concernée par ce programme, on a pu montrer une diminution des dépenses de soin. Ce programme est associé avec des outils de santé en ligne, un programme de retour à domicile, ainsi que le programme national Sophia (ce programme a été mis en œuvre par les sociétés Altran et Healthways[2]). « Sophia » est l’un des plus importants programmes européens d’accompagnement personnalisé des patients atteints de maladies chroniques, principalement en ce qui concerne le diabète.

 

Pour les programmes de construction et d’infrastructure, Patrick Négaret propose de prendre en compte l’impact santé et non seulement l’impact écologique. Il donne plusieurs exemples, dont celui qui consiste à améliorer un parcours urbain : on dénombre alors moins de chutes et par conséquent moins de chirurgie orthopédique !

 

Arnaud Munnich s’intéresse quant lui au handicap chez l’enfant. Il vient de créer la « fondation imagine », un institut sur les maladies génétiques. Pour lui, des occasions de valoriser la recherche ont été perdues, car l’archaïsme de la recherche en agence paralyse l’innovation. Le bâtiment de la fondation, construit par l’architecte Nouvel, est adossé à l’hôpital Necker enfant malade.Cette fondation s’intéressera aux 20 000 enfants atteints de maladies rares. Pour lui, son institut représente en soi la preuve que l’on peut attirer les meilleurs chercheurs sur ce type de thème en France.

 

 

 

Pour en savoir plus :

 

Sur la journée « le progrès c’est nous » : www.leprogrescestnous.fr et la fondation pour l’innovation politique qui est l’organisateur : www.fondapol.org/

 

Sur Alzheimer : lire l’article de Baulieu E.E., Robel P., Fellous A., Duchossoy Y., Fontaine-Lenoir V., David S., « MAPREG: toward a novel approach of neuroprotection and treatment of Alzheimer’s disease », J. Mol. Neurosci., 2004, 24(1):63-5, review.

Pour la société Asteres : http://www.asteres.fr

Pour la société Celtipharm : http://www.celtipharm.org

Pour le programme de la CNAM « santé active » : http://www.masanteactive.com

Sur le diabète : http://www.ceed-diabete.org

Pour DNAvision : http://www.dnavision.com

Pour l’Institut Beaulieu : http://www.institut-baulieu.org

Pour la mutuelle Matmut ; http://www.matmut.fr

Pour la société Watchfrog : http://www.watchfrog.fr

 

 



[1] Ce sont des produits introduits dans des matières pour retarder leur inflammation.

[2] La Caisse nationale de l’assurance maladie des travailleurs salariés (CNAMTS), a attribué à Altran et Healthways l’assistance à maîtrise d’œuvre de son programme d’accompagnement « Sophia » pour une durée de 4 ans en mars 2011.

Le modèle TRA (Theory of Reasoned Action)

Le modèle TRA (Theory of Reasoned Action) a été proposé en 1975 par Fishbein et Ajzen. Selon la théorie d’action motivée de Fishbein et Ajzen, les croyances, les attitudes, les intentions forment une chaîne causale. Les croyances mènent aux attitudes, les attitudes mènent à leur tour aux intentions et de ce fait au comportement. Il porte sur la construction d’un système d’observation de deux groupes de variables, en l’occurrence : 

 

-          des attitudes définies comme un sentiment positif ou négatif d’atteindre un but,

-          des normes subjectives, qui elles-mêmes représentent la perception des individus relative au fait de pouvoir atteindre ces objectifs avec le produit.

 

Ces auteurs ont davantage mis l’accent sur l’importance de l’intention que sur la réalité d’usage. En fait, les personnes qui achètent le font en fonction de ce qu’ils ont envie de faire et absolument pas selon un besoin réel dans leur modèle. Dans le cadre des technologies de l’information, cette approche est inopérante. Tant que l’on ne possède pas un téléphone mobile, on ne peut pas savoir à quoi cela sert, et la définition des intentions devient par conséquent impossible. C’est pour cette raison que les opérateurs de téléphones mobiles ont essayé pendant longtemps de « montrer » par le biais de la publicité des situations d’usage totalement « inventées » par des groupes de réflexion. C’est ainsi par exemple que le téléphone mobile en tant qu’ « outil de sécurité » s’est imposé dans la relation parent-enfant.

Biographie : Fishbein M., Ajzen I., Belief, Attitude, Intention, and Behavior: An Introduction to Theory and Research, Reading, MA: Addison-Wesley, 1975.

 

Vous pouvez lire l’intégralité du document et l’acheter à partir de ce lien

http://www.lulu.com/spotlight/salgues

imagelulu

Vous pouvez aussi acheter mes livres sur Amazon

L’approche traditionnelle ou DOI (Diffusion Of Innovation)

Everett Rogers définit la diffusion comme « le processus par lequel une innovation est communiquée par un temps fini à travers certains canaux parmi les membres d’une société » (Rogers, 1995, p.5). Il définit dès lors cinq critères : avantage relatif, compatibilité, complexité, expérimentabilité et observabilité.

 

Il a introduit la notion de leader d’opinion qui permet que l’innovation se diffuse. Le fait que le téléphone mobile soit à la fois l’innovation et le canal multiplie de ce fait l’importance de la notion de leader. Les cinq critères précédemment cités renvoient également à quelques notions clés que nous aborderons par la suite. La notion d’utilisation réelle que l’on fait de l’objet conduira à étudier les usages détournés. Celle de masse critique des acquéreurs est peu opérante dans notre produit du fait de la rapidité de diffusion. Enfin, le degré de réinvention de la part de l’utilisateur est une notion clé dont il est possible d’établir cette hypothèse qu’elle permet la création d’une nouvelle ère, une nouvelle société.

 

L’avantage relatif  (Relative advantage)

 

Le degré par lequel l’innovation est perçue comme étant meilleure est désigné par « avantage relatif ». Rogers suggère ainsi que plus l’avantage relatif perçu d’une innovation est grand, plus rapide est son taux d’adoption. L’avantage relatif du GSM est bien là, en plus du téléphone, il permet de téléphoner en mobilité, même si ceci peut rester relatif en termes de législation par exemple. Il serait possible de réfléchir à cette occasion à toutes les questions relatives aux lois qui interdisent l’usage du téléphone dans des outils de mobilité comme la voiture. En effet, de nombreux pays ont adopté des législations interdisant de téléphoner à bord de son véhicule.

 

La compatibilité (Compatibility)

 

La compatibilité correspond au degré selon lequel l’innovation est perçue comme étant conforme aux valeurs existantes, aux expériences antérieures, et aux besoins des adopteurs potentiels. Tornatzky et Klein (1982) ainsi que Ndubinsi et Sinti, (2006) en ont fait le constat. En effet, l’innovation était plus facilement adoptée lorsqu’elle s’était avérée compatible avec les usages de l’adopteur potentiel. Le téléphone mobile permet de téléphoner vers un téléphone fixe et vice versa. Ce point reste également discutable, le coût élevé des communications des fixes vers mobiles est un facteur négatif.

La complexité (Complexity)

 

 

D’après Rogers,  il s’agit du degré selon lequel une innovation est perçue comme difficile à comprendre et à employer. Il suggère qu’une innovation doit être simple à comprendre si l’on veut que les usagers potentiels l’adoptent. Lederer et alii (2000) ont montré que la complexité a pu négativement influencer l’adoption de l’Internet. L’article analyse le web à travers le modèle TAM, par exemple de 1995 à nos jours, notamment par le biais de l’exemple des commandes comme « http:// ». En revanche, le téléphone mobile fonctionne comme un fixe, ou presque. Ce qui expliquerait les rapports de 1 à 2 de la diffusion mondiale de ces technologies.

 

L’expérimentabilité (Trialability)

 

La possibilité d’expérimenter est majeure. L’expérimentabilité est le degré selon lequel une innovation peut être expérimentée sur une base limitée. C’est la raison pour laquelle dans les innovations TIC, la part du gratuit est importante. Agarwal et Prasad (1998), Tan et Teo  (2000) suggèrent que cette possibilité de tester aide à réduire au minimum  l’inconnu, ainsi que les craintes qui en résultent. Ces auteurs insistent sur la confiance que l’on doit avoir pour adopter et par ailleurs comment la possibilité d’expérimenter facilite cette adoption. Tester le téléphone mobile est quasiment impossible, sauf par l’intermédiaire d’amis et de la famille, ce qui explique que cet argument est  important. Pouvoir tester sans acheter (ou pour la modique somme de 1 euros) a donc été un argument majeur dans la diffusion des téléphones mobiles.

 

L’observabilité (Observability)

 

 

L’observabilité est définie comme le degré par lequel les impacts, effets ou résultats d’une innovation sont évidents aux yeux des autres. D’autres auteurs  préféreront l’usage du  terme de « démonstrabilité », à l’image de Moore et Benbasat (1991). Le téléphone mobile est rapidement  présenté comme l’outil de toutes les stars. Interviewé en 1995 par « Ici Paris », j’expliquais au journaliste qui reprenait scrupuleusement mes propos sur  l’idée d’un développement généralisé du mobile, même si l’article était illustré par des photos de stars ayant un téléphone mobile dans la main Aujourd’hui, de telles photos sont plus rares. Le journaliste avait voulu me « stariser ». Il avait sous-titré ma photo « Bruno Salgues, monsieur portable fait des conférences dans le monde entier et vient de publier un livre à ce sujet ».

 

Rogers est le premier à introduire le terme d’ « early adopter ». La publicité, élément du mix marketing, trouve sa justification dans cette approche. Elle doit présenter le produit au consommateur en montrant l’usage fait par ses utilisateurs. Une des difficultés de cette époque est qu’il était alors rigoureusement impossible de définir ces usages. Il était de même impossible de trouver des variables qui ne permettaient de segmenter qu’en montrant l’utilisateur comme un « nomade ». Parmi les premiers utilisateurs de téléphone mobile, les fichiers des opérateurs ne révélaient que la présence de « nomades », ils représentent moins de 5 % aujourd’hui. Au commencement de la téléphonie mobile, les catégories socioprofessionnelles des usagers étaient très différentes, y compris leur métier, les chefs d’orchestre côtoyant les VIP (pour Very Important Person). La seule caractéristique commune était le fait d’être nomade, aucune segmentation n’était possible. La segmentation consiste à attribuer par bijection un produit à un groupe d’utilisateur. Parmi les utilisateurs, on trouvait pêle-mêle « des chefs d’orchestre, des commerciaux itinérants, des professeurs conférenciers, des politiques ». (Extrait d’un document de la firme Motorola en 1998)

 

 

En ce qui concerne cette notion de segmentation, il faut remarquer à ce stade que certains sociologues des usages retrouvent les principes de base du marketing. Ainsi, Steve Woolgard  affirme que les concepteurs évaluaient « l’utilisabilité » des objets techniques avant leur distribution commerciale. Ainsi, la conception de l’objet technique est-elle à relier à une  « configuration de l’usager ».  De plus, ces auteurs définissent mal le terme qu’ils utilisent, ce qui n’est pas le cas de Rogers.

 

Madeleine Akrich s’intéresse au design des objets techniques. Pour elle, ce type d’objet comporte un script qui agit comme un scénario, une histoire. Ce scénario anticipe les besoins des usagers en y intégrant leurs intérêts, leurs compétences, leurs habilités et des formes de comportement. Pour résister à cet objet, Madeleine Akrich apporte une idée nouvelle par rapport à Anne-Marie Laulan en proposant à l’usager de « se désinscrire ».

 

Pour conclure, il convient de constater que cet équipement que représente le téléphone mobile, ne correspond pas parfaitement aux critères définis par Rogers, bien qu’il les utilise. Il serait dès lors intéressant de se demander si des modèles plus récents correspondent mieux à ce nouvel outil.

 

Pour résumer : les critères de Rogers

 

Avantage Relatif – Relative advantage

Compatibilité – Compatibility

Complexité – Complexity

Expérimentabilité – Triability

Observabilité – Observability

 

Source : Rogers, Bonne question, 1995.

 

Vous pouvez lire l’intégralité du document et l’acheter à partir de ce lien

http://www.lulu.com/spotlight/salgues

imagelulu

Vous pouvez aussi acheter mes livres sur Amazon

 

Bibliographie

 

Akrich, Comment décrire les objets techniques, Techniques et culture, n° 9, 1987.

 

Rogers: Diffusion of Innovation, The Free Press, Fourth edition, New York, NY, USA, 1995.

 

Complément

 

On retrouve ces idées de Woolgar dans le livre édité par John Law, A sociology of Monster, Essays on power, technology and Domination, Rouledge Editor, London, 1991. L’article est intitulé « Configuring the user, the case of usability trial ».

Le télétravail vu depuis la ruralité

Réfléchir une nouvelle fois sur le télétravail pouvait être ennuyeux. Cela n’a pas été le cas. En effet, nous sommes à l’heure des bilans et les premiers constats prennent forme. Tout d’abord, il  faut replacer le numérique dans les sujets de société et se poser la question : comment construire l’avenir ? Les enjeux ruraux et territoriaux sont des questions de citoyenneté. Il s’agit alors de savoir comment utiliser la nouvelle donne et en particulier avec le télétravail.

Formation, accompagnement des travailleurs, animation d’un pôle de compétences en télétravail, accompagnement de 27 entreprises en télétravail, 700 personnes formées, tel est le bilan d’une structure de télétravail.  Le télétravail ne nécessite pas seulement des conditions techniques pour travailler à distance, il faut également se rencontrer pour  des raisons humaines et professionnelles et des équipements sont nécessaires. Il faut également être formé aux usages.

 

Pour le département de la Dordogne, il est plus facile de faire venir 300 télétravailleurs qu’une  entreprise de 300 personnes, tel est le constat du Conseil général de la Dordogne. L’ouverture de 10 télécentres est en cours en 2013 et 2014.

 

Gérard Amigues rappelle que  3 télécentres ont été ouverts dans le Lot ainsi que des centres multimédias, et que d’autre part le département dispose d’un plan de développement pour le numérique. Sa question se résume au fait que la notion de télétravail est toujours un mythe ou devient une réalité. Il établit le constat que les acteurs disposent d’une marge très réduite dans ce domaine, ce sont des raisons « techniques » et « juridiques » qui bloquent les projets plus que des aspects humains.

L’association de professionnels du numérique a créé l’Association SISMIC, l’association SISMIC se heurte aux mêmes freins relatifs au débit, aux usages, … Il ne faut pas dire que l’ADSL suffit, mais il n’est pas possible que l’on attente que  le très haut débit arrive. A contrario,  les travailleurs ne viendront pas sans Internet. Pour un commercial qui travaille à distance ou une secrétaire dans la même situation, il n’est pas nécessaire d’avoir du très haut débit.

L’association essaye une animation du réseau de télécentres.

Vincent Descœur, rappelle que son expérience a maintenant plus de 6 ans. Le  début en 2006 est lié à l’appel à projet DATAR. Vincent Descœur se dit fervent défenseur des télétravailleurs dans la ruralité, car il y a plusieurs dizaines d’emplois créés. L’accueil de nouveaux actifs est une obsession pour sa région et il y ajoute une nécessité de mobilité. Quelle est la problématique d’un territoire ? reconquérir des acteurs, réduire les temps d’accès au travail, réduire le chômage ?  …

Pascal Rassat affirme qu’il existe de freins culturels dans les entreprises. Parmi les réticences, il y a la peur de non-retour au bureau des employés. Le contexte se résume au fait que le télétravail est possible partout, mais encore faut-il des lieux spécifiques pour cela.

Le télétravail semble donc progresser, mais pas aussi rapidement que certains l’avaient souhaité.

Source : Ruralitic 2013, Université d’été des territoires numériques qui s’est déroulée au Centre de Congrès d’Aurillac (Cantal),  les 11 et 12 septembre 2013, http://www.ruralitic.org

Eclectic, des entrepreneurs en réseau

Eclectic présenté par Simon Bretin. Il s’agit d’une coopérative d’activités d’entrepreneurs. Cette coopérative fonctionne à partir de trois idées : tester et développer son activité, intégrer un réseau d’entrepreneurs et donc s’aider, affirmer que l’innovation  ne viendra pas des entreprises classiques et installées, mais de nouvelles entreprises innovantes.

 

Source : Ruralitic 2013, Université d’été des territoires numériques qui s’est déroulée au Centre de Congrès d’Aurillac (Cantal),  les 11 et 12 septembre 2013, http://www.ruralitic.org

Une citation dans un article du Huffington Post

Pour comprendre le téléphone portable « en morceau »

ma réflexion et celle  de mon collègue Thierry Isckia, citée dans http://www.huffingtonpost.fr/2013/09/13/phonebloks-concept-telephone-realisable_n_3919397.html?utm_hp_ref=france

A lire pour comprendre

Question de modèle dans les TIC : interaction versus intension

 

La première question serait la suivante : comment améliorer les modèles d’adoption et de diffusion ? Face au succès du téléphone mobile, cette question n’a pas de sens. Mais il convient tout de même d’analyser ces modèles de diffusion, ce que nous ferons.

 

Les modèles traditionnels d’adoption des technologies ne sont guère pertinents quant aux technologies de l’information et de la communication (TIC). Dès que l’on veut appliquer ces modèles dans le monde réel, les acteurs du marketing se heurtent à des difficultés. En outre, le facteur culturel ne semble pas être, dans ces cas, un facteur  déterminant du  succès du produit. Nous étudierons donc par la suite ces méthodes et ces approches issues du marketing.

 

Sur la planète, plus de deux humains sur trois (soit près de cinq milliards d’individus) utilisent un téléphone portable à la norme GSM, et trois milliards d’entre eux en possèdent un dans leur poche. Ils le nomment cellular, cellulaire, handy, telefonino ou portable selon les langues, ce qui pourrait laisser penser que les usages et cultures associés sont très différents. À peine plus d’un milliard d’adresses Internet sont actives dans le monde, ce qui concerne par conséquent un pourcentage de la population mondiale bien plus faible. Les fabricants de cartes à puce en ont vendu 4,3 milliards en 2007, ceci représentant plus de 4,5 milliards d’utilisateurs dans le monde  : il s’agit de ces fameuses cartes SIM qui permettent de  faire fonctionner les téléphones mobiles. Malgré ce succès fulgurant, force est de constater que certaines personnes sur la planète n’ont pas accès à cet outil, ou n’ont pas la possibilité d’utiliser toutes les fonctionnalités. Nous étudierons la réalité de la fracture numérique et ses conséquences.

 

Une des caractéristiques de ces technologies est l’interaction qu’elle permet.

 

Définition : l’interaction est le terme utilisé pour désigner à la fois la forme que prend le dialogue entre l’utilisateur et l’appareil, et le fait que plusieurs personnes peuvent communiquer par l’intermédiaire de cet appareil.

 

Cette notion d’interaction renvoie à une discussion sur la passivité de l’utilisateur dans la communication. Ces technologies ne sont utilisées que si un individu a l’intention d’y avoir recours, et si une forme d’individualisation en résulte.

 

Il n’est pas possible de se fonder sur une seule théorie de l’intention. Rappelons la définition de l’intention :

 

Définition : L’intension est la raison pour laquelle on communique. Elle est attribuée en général au destinateur.

 

Pour que cela soit vrai, il faudrait que chaque humain ait subitement voulu communiquer en masse avec le téléphone mobile, ce qui n’est bien évidemment pas le cas.

 

 Le téléphone mobile a longtemps été analysé en termes anthropologiques comme une « prothèse ». L’ensemble du marketing des constructeurs de matériel et des opérateurs se sont donc positionnés dans cette voie. Mais il est possible de l’analyser comme un processus d’individualisation, ce que nous retiendrons.

 

Définition : L’individualisation est un processus qui apparaît lorsque les individus utilisent ces technologies avec une interaction particulière.

 

Nous chercherons à qualifier ce processus d’individualisation. Auparavant, nous montrerons les faiblesses des analyses économiques, des modèles marketing et stratégiques d’adoption, puis nous expliciterons les nouvelles notions qui deviennent déterminantes. Ensuite, nous chercherons à définir une nouvelle approche de développement de ces produits.

 

 Source : enquête et études du Cabinet Eurosmart pour le Salon Cartes de Paris qui a eu lieu du 13 au 15 novembre 2007

 

Ce texte est issu de mon livre 30 ans de téléphonie mobile

Vous pouvez lire l’intégralité du document et l’acheter à partir de ce lien

http://www.lulu.com/spotlight/salgues                                      imagelulu

Vous pouvez aussi acheter mes livres sur Amazon