Le secteur à but non lucratif adopte l’intelligence artificielle plus rapidement qu’elle ne le n’est pas prête. Plus de la moitié des organisations à but non lucratif utilisent désormais des outils d’IA sous une forme ou une autre – chatpt, les systèmes d’automatisation, l’analyse prédictive – mais moins de 10% ont des politiques écrites sur la façon dont cette IA devrait être utilisée. Ce n’est pas seulement une surveillance procédurale.
C’est une vulnérabilité structurelle. Ces organisations, dont beaucoup servent des communautés historiquement marginalisées, entrent dans un paysage technologique à enjeux élevés avec peu de garde-corps et encore moins de cadres internes pour les guider. Cet écart entre l’adoption et la gouvernance pose des risques réels – les préjugés algorithmiques, les violations de confidentialité et les dommages involontaires – en particulier lorsque des outils standard sont déployés sans compréhension ni supervision approfondie. La ruée vers l’efficacité peut éroder involontairement la confiance, compromettre les valeurs et exposer les organisations à but non lucratif aux retombées de réputation et légales.
Efficacité maintenant, regrette plus tard
Les chiffres racontent une histoire frappante. Selon BDO 2024 enquête d’analyse comparative à but non lucratif82% des organisations à but non lucratif américaines font désormais rapport à l’aide de l’IA. Parmi ceux-ci, la majorité l’applique aux opérations internes: 44% utilisent l’IA pour des tâches financières telles que la budgétisation et l’automatisation des paiements, et 36% l’appliquent à l’optimisation du programme et à l’évaluation de l’impact. En d’autres termes, l’accent est l’efficacité administrative – pas la livraison de mission.
Cela est conforme au Centre for Effective Philanthropy 2024 État à but non lucratif L’enquête, qui a également révélé que les gains de productivité étaient la raison la plus courante de l’utilisation de l’IA. Mais cette même enquête révèle le décalage éthique: moins d’une organisation sur dix a mis en place des politiques formelles. Et les organisations qui utilisent l’IA travaillent souvent avec des infrastructures limitées, peu d’expertise interne et des budgets contraints qui les empêchent de construire des systèmes personnalisés et conscients du domaine. Au lieu de cela, ils s’appuient sur des outils commerciaux non conçus pour leurs contextes uniques, augmentant la probabilité de biais, d’utilisation abusive ou de désalignement de mission.
À un moment où la confiance est au cœur de la crédibilité à but non lucratif, ce vide de gouvernance est alarmant. L’IA n’est pas neutre. Il reflète, amplifie et opérationnalise les données sur lesquelles elle est formée – et ces données sont souvent criblées d’inégalités historiques. Sans politiques pour guider l’utilisation, les organisations à but non lucratif risquent de renforcer les inégalités très structurelles qu’elles visent à démanteler. Ils risquent également de ne pas tomber de leurs propres valeurs. En tant qu’Addie Achan, directeur des programmes d’IA à Fast Forward, mettre: « Il est préférable pour une organisation de définir les règles et les attentes autour de cette utilisation plutôt que de demander aux gens de l’utiliser et de causer par inadvertance plus de mal. » Dans ce contexte, le «préjudice» pourrait signifier quoi que ce soit de la prise de décision discriminatoire dans la prestation de services aux fuites involontaires des données sensibles des bénéficiaires. Le besoin de politiques d’IA éthiques n’est pas une préoccupation théorique – elle est pratique.
Le coût de la prudence et le prix de l’action
Selon le sondage de BDO indique un trifecta de résistance: manque de connaissances, infrastructure insuffisante et contraintes de financement. Mais environ un tiers des répondants ont également cité la résistance des employés et les préoccupations éthiques. Alors que les gestionnaires craignent le risque, les employés peuvent craindre le remplacement. Le scepticisme est donc à la fois pratique et existentiel. Et il se déroule de manière inégale. La plupart des déploiements d’IA sont limités aux fonctions de back-office, où la technologie peut améliorer tranquillement la précision et l’efficacité. Mais les applications les plus transformatrices – suivi de l’énergie alimentée en AI, synthèse de données en temps réel pour les programmes d’éducation mondiale – sont en grande partie ambitieux. Ces utilisations alignées sur la mission exigent à la fois les muscles financiers et la clarté éthique. À l’heure actuelle, la plupart des organisations à but non lucratif en ont l’une ou l’autre. Peu ont les deux.
La loi sur l’équilibrage financier
Ironiquement, la situation financière du secteur est plus stable qu’elle ne l’a été depuis des années. Selon BDO, 52% des organisations à but non lucratif ont connu une croissance des revenus au cours de l’exercice précédent, contre 44% en 2023. Pendant ce temps, 62% détiennent désormais sept mois ou plus de réserves d’exploitation – le coussin le plus fort depuis 2018. Il s’agit d’un changement significatif par rapport aux années de maigrs de la pandémie. Et cela donne aux dirigeants la confiance nécessaire pour considérer des changements opérationnels plus ambitieux.
Près des trois quarts des organisations à but non lucratif disent qu’ils prévoient d’élargir ou de déplacer la portée de leurs missions au cours des 12 prochains mois. Mais la prudence reste la posture financière dominante. La plupart des organisations dépensent moins dans tous les domaines en 2024 par rapport à 2023, en particulier dans le plaidoyer, la collecte de fonds et les relations avec les donateurs. Les exceptions sont le développement de nouveaux programmes et l’acquisition de talents – des zones qui ont vu des dépenses modestes augmenter. En d’autres termes, les organisations à but non lucratif économisent, embauchent et testent de nouvelles directions, mais elles le font avec un œil sur le calendrier politique et l’autre sur l’instabilité macroéconomique.
Un aspirateur politique avec des conséquences réelles
Alors, où cela quitte le secteur? C’est dans un moment de contradiction tranquille. D’une part, les organisations à but non lucratif construisent des réserves, l’embauche de talents et l’expansion des missions – signes de confiance institutionnelle. De l’autre, ils adoptent rapidement une technologie puissante et imprévisible sans les structures de gouvernance pour le gérer. Le secteur entre dans l’ère IA de la même manière qu’il est entré dans l’ère numérique – tout en improvisation et en adaptation plutôt que dans la conception stratégique. Cela peut être bien pendant un certain temps. Mais sans politiques pour assurer la transparence, la responsabilité et l’alignement avec la mission, les risques ne feront que croître. Les outils peuvent être nouveaux, mais les dilemmes éthiques – qui profitent, qui a laissé de côté, qui décide – est ancien et non résolu.
Ce qui doit arriver ensuite
La création de politiques d’IA éthiques pour les organisations à but non lucratif ne concerne pas le ralentissement de l’innovation; Il s’agit de le diriger. Cela signifie établir des directives qui reflètent la mission et les valeurs de chaque organisation, investir dans l’éducation interne sur le fonctionnement des systèmes d’IA et la mise en œuvre de processus de surveillance pour évaluer à la fois les avantages et les méfaits. Les politiques devraient clarifier non seulement pour quoi l’IA peut être utilisée, mais pour quoi il ne devrait pas être utilisé. Ils devraient identifier les points de décision où l’examen humain est obligatoire, décrire les attentes de confidentialité des données et fournir des procédures de réparation en cas de dommage.
Les organisations à but non lucratif ont une fenêtre étroite pour donner l’exemple. Ils peuvent montrer qu’il est possible d’utiliser l’IA non seulement efficacement, mais éthiquement.