Die Evaluation von Landesprogrammen

Die Seite wird erstellt Stefan-Nikolai Maurer
 
WEITER LESEN
Die Evaluation von Landesprogrammen
Querschnittsanalyse von Landesprogrammevaluationen                                27.4.2006

           Die Evaluation von Landesprogrammen

            Zum Stand der Evaluationspraxis von Landesprogrammen
               (respektive Kooperationsstrategien) bei 4 Gebern

Vortrag im Rahmen der SEVAL – DeGEval Frühjahrestagung an der ETH
                       Zürch am 27. April 2006

                                     Dieter Zürcher ( zuercher@nadel.ethz.ch )
                                    Pierre Walther ( pw@walther-consulting.ch )
Die Evaluation von Landesprogrammen
Querschnittsanalyse von Landesprogrammevaluationen        27.4.2006

                                                 Inhalt

1.   Ausgangslage & Fragestellung
2.   Methodik & Stichprobe
3.   Erkenntnisse aus Dokumentenanalyse
4.   Erkenntnisse aus Fragebogen
5.   Highlights im methodischen Bereich
6.   Schlussfolgerungen
7.   Empfehlungen

Literatur
Die Evaluation von Landesprogrammen
Querschnittsanalyse von Landesprogrammevaluationen                  27.4.2006

               1. Ausgangslage und Fragestellung
¾ Seit Mitte der 80er Jahre haben Geberländer versucht, ihre Unter-
  stützung auf Schwerpunktländer zu konzentrieren -> Verbesserung
  von Relevanz und Kohärenz durch landesspezifische Strategien
¾ Im Jahre 1999 hat das DAC (Development Assistance Committee der
  OECD) Empfehlungen zur Umsetzung von Landesprogramm-
  evaluationen (LPE) gemacht: mehr gemeinsame Analysen, klarer
  Referenzrahmen für Bewertung, etc.
¾ Seit der Erarbeitung von PRSPs, mit stärkerer Ownership bei den
  Nehmern, werden Landesprogramme für die Harmonisierung
  wichtiger (Paris Declaration 2005)
¾ Die Programme werden verstärkt an den effektiven Resultaten
  gemessen. Die Einführung einer resultatsorientierten Architektur in
  Landesprogrammen steht – international wie in der DEZA - am
  Anfang
Die Evaluation von Landesprogrammen
Querschnittsanalyse von Landesprogrammevaluationen                 27.4.2006

                                             Fragestellung

    Ziel: Umsetzungsorientierte Schlussfolgerungen für die künftige
    Evaluation von Kooperationsstrategien der DEZA, insbesondere
    bezüglich

¾ Wie werden Resultate definiert, gemessen, aggregiert und mit
  PRSP/MDGs korreliert ?
¾ Mit welchen Methoden werden Wirkungsketten auf Ebene
  Sektor/Land analysiert und Wirkungen bewertet ?
¾ Wie sehen Aufwand und Ertrag dieser Evaluationen aus ?
¾ Welches sind die Stärken und Schwächen des DEZA Ansatzes im
  Quervergleich mit anderen Gebern ?
¾ Was sind die wichtigsten Folgerungen für die Planung von neuen
  Kooperationsstrategien ?
¾ Was sind in Zukunft minimale Standards für solche Evaluationen?
Querschnittsanalyse von Landesprogrammevaluationen                            27.4.2006

                        2. Methodik und Stichprobe
¾ Vergleich von 15 Evaluationsberichten nach einer Checkliste
  - Generelle Charakteristiken (Autoren, Kosten, untersuchte Sektoren, ...)
    - Terms of Reference (Zahl der Fragen, Schritte der Evaluation, …)
    - Bericht (Lesbarkeit, Terminologie, fehlende Themen, ….)
    - Wirkungsanalyse (Welche Resultate auf Sektor- und Landesebene, …)
    - Methoden (qualitative/quantitative, Fallstudien, …)
    - Empfehlungen (Klarheit, Umsetzung, ….)
    - Anderes (Interviewte Personen, ….)
¾ Schriftliche Befragung DEZA, DFID, Danida, SIDA
¾ Schriftliche Befragung einiger Schweizer NGOs (Helvetas, Caritas, Terres
  des Hommes, Swisscontact)
¾ Dokumentenanalyse (Meta-Analysen DFID, Sida, Weltbank)
¾ Synthese
Querschnittsanalyse von Landesprogrammevaluationen                                        27.4.2006

         Geber       Land (Jahr)                     Volumen (ca. Mio.   Zahl der Autoren/
                                                        € pro Jahr)         ca. Kosten
        Danida Kosovo (04)                                40 Mio €           10 / 312 AT
                     Nicaragua (02)                       28 Mio €          16 / 364‘000 €
                     Vietnam (02)                         35 Mio €           9 / 424‘000 €
                     Bolivien (02)                        19 Mio €           8 / 383‘000 €
          DFID       Ghana (06)                          160 Mio €           6 / 128‘000 €
                     Kambodscha (05)                      12 Mio €           6 / 311‘000 €
                     Rumänien (04)                        9 Mio €            5 / 274‘000 €
                     Bolivien (04)                        10 Mio €           3 / 87‘000 €
          SDC        Zentralamerika (06)                  26 Mio €       4 / 50‘000 € (106 AT)
                     Serbien & Mo.N. (06)                 19 Mio €       4/ 75‘000 € (104 AT)
                     Nepal (05)                           12 Mio €       4 / 80‘000 € (117 AT)
                     Angola (03)                         5.5 Mio €            2 / 45 AT
          Sida       Laos (02)                            60 Mio €            4 / 150 AT
                     Vietnam (02)                         35 mio €            4 / 150 AT
                     Mozambique (01)                      37 Mio €            8 / 200 AT
Querschnittsanalyse von Landesprogrammevaluationen                  27.4.2006

                 Feststellungen zu den Landesprogrammevaluationen

¾ Grosse Unterschiede in Aufwand (z.B. Autoren: 2 bis 16!) und Kosten
  (50‘000 € bis 400‘000 €)
¾ DEZA liegt deutlich am unteren Ende bezüglich Aufwand, DFID
  investiert trotz dem „light approach“ erheblich mehr
¾ Die meisten Evaluationen dauern ab ToR bis Veröffentlichung ca. ein
  Jahr, die effektiven Missionen benötigen 2-3 Wochen
¾ Grosse Unterschiede bezüglich Internationalität (ev. „Unabhängig-
  keit“): bei DFID waren 2/3 der Konsulenten britisch, bei Danida/Sida
  kamen die Hälfte aus dem Geberland, bei der DEZA weniger als 10%
¾ Alle Evaluationen sind auf den Homepages der Geber vorhanden,alle
  Berichte präsentieren sich mit attraktivem Layout und sind gut editiert
¾ Umfang Hauptbericht schwankt (meistens ca. 40 Seiten bei
  DFID/DEZA bis zu 100 Seiten bei Sida)
Querschnittsanalyse von Landesprogrammevaluationen                 27.4.2006

         3. Erkenntnisse aus Dokumentenanalyse
Ansatz
¾ Bei der DEZA etabliert sich ein formativer Ansatz mit Lerngruppen in
  der Schweiz und z.T. vor Ort (Schwerpunkt auf internem Lernen)
¾ Balance zwischen Rechenschaftspflicht und Lernen bei allen Gebern
  angestrebt, z.T. unterschiedlich gewichtet
¾ Alle Evaluationen waren Grundlage für eine neue Landesprogramm-
  respektive Kooperationsstrategie

Inhalt/Kriterien
¾ Zentrale Themen/Kriterien der Analyse: Relevanz, Effektivität,
   Kohärenz des Portfolios und Qualität der Partnerschaften.
¾ Kriterien wie Effizienz, Impakt, Nachhaltigkeit und Querschnittsthemen
   werden z.T. sehr unterschiedlich tief bearbeitet
¾ Die meisten Geber haben einen Raster zur Struktur der Bericht-
   erstattung
Querschnittsanalyse von Landesprogrammevaluationen                   27.4.2006

                                        Dokumentenanalyse

Methodik
¾ Vorwiegend qualitative Methoden (Experteninterviews). In Einzelfällen
  wurden standardisierte Befragungen durchgeführt (DFID) oder
  Fallbeispiele aufgearbeitet
¾ Auswahl, Qualifikation und Mut zur Meinungsäusserung der Experten hat
  einen grossen Einfluss auf den Nutzen den solche LPEs bringen
¾ Wirkungsmodelle und quantitative Methoden wie Fragebogen werden
  selten eingesetzt (einzelne Beispiele bei DFID, Danida)
¾ Wenig Referenz zu MDGs, PRSPs als Bewertungskriterien (DFID ab
  2005)

Ablauf
¾ ToR -> Auftrag -> „inception report“ oder „scoping visit“ als Vorbereitung
¾ Eigentliche Mission 2-3 wöchige Feldphase (eher selten mit
  Projektbesuchen), z.T separate/parallele Sektoranalysen
Querschnittsanalyse von Landesprogrammevaluationen                                    27.4.2006

                                      Besonderheiten Danida

             Positiv aufgefallen                               Negativ aufgefallen
  ƒ    Detaillierte Analyse jedes Sektors            ƒ   Sehr expertenlastig (top-down)
       mit Hintergrund Studien
                                                     ƒ   Wenig Ownership bei den Partnern
  ƒ    Die Gründlichkeit der Analyse
                                                     ƒ   Interviews mit 250 - 300 Personen
       schafft Basis für Konsens über
                                                         -> “versteckte Kosten” bei Partnern
       Stärken / Schwächen
  ƒ    Gut lesbare Texte

                                         Besonderheiten DEZA

  ƒ    Gutes Management des                          ƒ   Grenzen der Belastbarkeit der
       Prozesses (sorgfältige Planung,                   Teams z.T. ausgereizt (kleine
       griffige Management Response)                     Teams, grosse Anforderungen)
  ƒ    Fragestellungen sind nicht uniform            ƒ   Prozess ev. noch etwas zu
       sondern richten sich nach den                     schwerfällig und zu stark nach
       spezifischen Bedürfnissen                         innen (DEZA, seco) gerichtet
  ƒ    Relativ kostengünstig                         ƒ   Interne Kosten wahrscheinlich
                                                         hoch
Querschnittsanalyse von Landesprogrammevaluationen                                     27.4.2006

                                        Besonderheiten DFID
             Positiv aufgefallen                                Negativ aufgefallen
 ƒ    Innovative Methoden (z.B. time                 ƒ   Uneinheitliche Begriffe: Goal,
      lines, evaluation matrix)                          Purpose, objective, output, key
 ƒ    Umfassende Analysen (inkl.                         priority, theme
      Budgethilfe)                                   ƒ   Bezug zu PRSP und MDGs
 ƒ    Systematische Auswertung der                       illustriert Zuordnungslücke
      Projekt-Ratings (Output to Purpose             ƒ   Nachhaltigkeit marginal
      Reports)

                                         Besonderheiten Sida
 ƒ    Sehr gut editierte Berichte -> gute            ƒ   Unvollständigkeit: z.T. nur
      Analyse strategischer Fragen                       ausgewählte Sektoren evaluiert
 ƒ    Fokus auf „Key Issues“ erhöht die              ƒ   Kaum Fokussierung (bis zu 12
      Attraktivität für die Leserschaft                  Sektoren)
 ƒ    Fokus auf Neuausrichtung in der                ƒ   Seit 2002 keine LPEs mehr,
      Zukunft (nicht auf Outcome und                     nachher Gewicht auf Sektor/
      Impact)                                            Themenevaluationen
Querschnittsanalyse von Landesprogrammevaluationen             27.4.2006

                   4. Erkenntnisse aus Fragebogen
 Methoden
 ¾ Das Messen von Outputs und Wirkungen auf der Sektor- und
   Landesprogrammebene ist viel schwieriger als auf Projektebene
   (fehlende Indikatoren, komplexe Wirkungsketten, mangelhafte Daten,
   etc.)
 ¾ Eine Erarbeitung von Wirkungsketten auf Landesprogrammebene (z.B.
   mit Logframe, …) erscheint hilfreich für die Rekonstruktion der
   Programm-Logik
 ¾ Kombination von lokalen und internationalen Konsulenten ist
   kostengünstig und effektiv
 ¾ Halb-strukturierte Interviews, ergänzt mit Feldbesuchen, sind
   wirkungsvoll
 ¾ Noch mehr Gewicht auf Resultatorientierung und dem Feedback von
   Zielgruppen
Querschnittsanalyse von Landesprogrammevaluationen           27.4.2006

Herausforderungen
¾ Vereinheitlichung der Sprachlegung (z.B. Zielhierarchien,
  Berichtstypen, Zweck der Evaluation) als Grundlage für eine
  weitergehende Zusammenarbeit unter den Gebern
¾ Es braucht klarere und standardisiertere Monitoring-Rahmen auf
  Projekt und Sektorebene (mit Bezug zu PRS/MDG) und
  Vergleichswerten (Baselines, Benchmarking)
¾ Mehr gemeinsame Evaluationen bedingt eine verstärkte gemeinsame
  Planung der Landesprogramme
¾ Behalten die Landesprogramme angesichts vermehrter Budget- und
  Sektorhilfe ihre Relevanz? Die Meinungen gehen auseinander
¾ Effektive Harmonisierung auf der Ebene von Landesprogrammplanung
  und Evaluation steht erst am Anfang
¾ Methoden für „quick-screening“ oder „rapid appraisal“ auf
  Programmebene sind zu erarbeiten/testen
Querschnittsanalyse von Landesprogrammevaluationen   27.4.2006

            5. Highlights im methodischen Bereich

¾ Design des Evaluationsprozesses (DEZA)
¾ Analyse von Anomalien (Sida)
¾ Evaluationsmatrix (DFID)

Hier nicht illustriert, aber interessant
¾ Time line (DFID), Teil der Evaluationsmatrix
¾ Beeinflussungsmatrix (DFID)
Querschnittsanalyse von Landesprogrammevaluationen                   27.4.2006

                         Design des Evaluationsprozesses (DEZA)

 Evaluationsprogramm, vom comité stratégique (COSTRA) verabschiedet

Stabsstelle E+C identifiziert Nutzer der Evaluation und etabliert eine Core
       Learning Partnership (CLP), die Approach Paper kommentiert
             Stabstelle E+C identifiziert das Evaluationsteam

                                         Evaluationsmission

 CLP kommentiert alle Empfehlungen des Teams in einem Agreement at
                          Completion Point (ACP)
   CLP identifiziert zudem Lessons Learned (LL) für die DEZA selber.

    COSTRA diskutiert ACP und LL und gibt Entscheide über ein Senior
                     Management Response bekannt
Querschnittsanalyse von Landesprogrammevaluationen                                          27.4.2006

                                 Analyse von Anomalien (Sida)
                  Landesprogramm (LP) in Land xy
 Gesundheitssektor                           Pro-Poor Gouvernanz
                                         x                         Phasing out wegen neuem LP
                                                                            Neu wegen neuem LP

                                             Pro-Poor Dienstleistungen
                                                                     Fortgeführt wegen neuem LP
                                              x      Phasing out trotz neuem LP
                                                         Fortgeführt trotz neuem LP    „The elusive
                                                                                         middle“
 Bildungssektor
                                                                 Neu trotz neuem LP    • Diskussion von
                                                                                          Alternativen
                                                                                        • Darlegung der
                                                                                           Entscheide
              Evaluation                                Evaluation
                   Neuausrichtung                          Neuausrichtung
Querschnittsanalyse von Landesprogrammevaluationen                                       27.4.2006

                                     Evaluationsmatrix (DFID)

             Kriterien                               Hauptfrage        Unterfrage/Methode

              1. Was waren die wichtigsten Veränderungen im Kontext?
 Landesbüro /DFID                                                            Time line
 Entwicklungsfortschritt des              - Fortschritt bei den MDGs    Nationale Statistiken
 Landes                                  - Beitrag ODA zu den MDGs
                     2. Was war die Qualität des DFID Programmes?
 Strategie                               War die Strategie relevant?   Zusammenfassung der
                                                                       Entwicklung/Entscheide
 ….
                     3. Was hat das Programm erreicht? (Effektivität)
 Resultate                               Erreichung der Projektziele          “PRISM”
 Outcome (Sektor)                        Fortschritt Outcome-Ebene     Dokumente/Interviews
                     4. Conclusions, Lessons and recommendations
 DFID contribution                    Welchen Mehrwert durch DFID?     Dokumente/Interviews
Querschnittsanalyse von Landesprogrammevaluationen                27.4.2006

                              6. Schlussfolgerungen
      Was sich bei Landesprogrammevaluationen (LPE) bewährt hat

¾ Standardisierte Abläufe (inkl. ToR)
¾ Teams von 4-5 Experten, mit erfahrenem Teamleiter
¾ Eine sorgfältige Planung des Prozesses von Seiten Auftraggeber (z.B.
  Lerngruppen)
¾ Leichte Evaluationen, die trotzdem eine solide Analyse zur Programm-
  umsetzung geben und zu strat. Schlüsselthemen Stellung beziehen
¾ Kurze Feldbesuche, damit das Team mit der Projektrealität in Kontakt
  kommt (Querschnittsanalyse)
¾ Bereicherung des Berichtes durch zusammenfassende Tabellen zu
  Themen wie: Projektübersicht nach Sektoren (mit Mitteln), Bewertung
  (Rating) der Projekte, Analyse der Stakeholders und des gegen-
  seitigen Einflusses, etc.
¾ Sorgfältige Redaktion und gute graphische Aufmachung und
  Publikation der Berichte (auch auf Internet)
Querschnittsanalyse von Landesprogrammevaluationen                  27.4.2006

                            Wo es noch Verbesserungen braucht

¾ Referenzrahmen der Bewertung (Pläne, Strategien, Portfolios) ändern
  z.T. rasch und bleiben oft eher implizit
¾ Einbindung der Institutionen aus Partnerländer in die Evaluation (z.B.
  über Experten im Team) sollte verstärkt werden
¾ Transparenz der Berichte ( Methodik, Interviewpartner) könnte
  verbessert werden und besser ausbalanciert werden (lokale Nicht-
  Regierungspartner und Privatsektor sind rar als Interviewpartner)
¾ Lernprozesse zu stark auf „Insider“ bezogen (Geberorganisation)
¾ Die unabhängigen Evaluationen sind nur die Spitze des Eisberges: für
  eine systematische Evaluation von Landesstrategien (Performance
  analysis, z.B. Sida) sollten die gleichen Grundsätze wie für LPE gelten
¾ Absenz oder Scheu vor klaren Aussagen zu Programm-Management
  (Effizienzfragen), keine Angaben zu Overhead und Personalbestand
Querschnittsanalyse von Landesprogrammevaluationen               27.4.2006

                                         Last but not least…

¾ Die „leichtesten Landesprogramme“ führt die DEZA durch, investiert
  jedoch viel in die begleitenden Lernprozesse
¾ Die Wirkungsanalyse auf Projektebene funktioniert, am systematisch-
  sten bei DFID (mit formalem Bewertungssystem), Aggregierung hat
  aber oft Plausibilitäts-Lücken
¾ Die Aggregierung der Projektresultate auf Sektorebene scheitert an
  unklaren Zielsetzungen, fehlenden Indikatoren und der Absenz von
  Zielwerten (sowie der z.T. starken Fragmentierung der Sektoren)
¾ Die sich schnell ändernden Strategien (Landesfokus  Region,
  Sektorschwerpunkte, Partnerstrategien, etc.) erschweren die
  systematische Wirkungsanalyse über längere Zeit
¾ Gesamtheitliche Ansätze werden in Zukunft noch wichtiger (Stichworte:
  Budgethilfe und der „total ODA Impact“ Ansatz des DAC) um ein
  realistisches Bild der Entwicklungsfortschritte zu erhalten
Querschnittsanalyse von Landesprogrammevaluationen             27.4.2006

                                    7. Empfehlungen
¾ Einen gemeinsamen Begriffsrahmen und Standard für LPE festlegen,
  die ToRs und Methoden harmonisieren (aber Raum für spezifische
  Fragen zu Lernprozessen behalten)
¾ Das gleiche Land wird in kurzem Abstand von verschiedenen Gebern
  evaluiert -> bessere Koordination der LPEs
¾ Gesamtheitliche Betrachtung der Massnahmen von Budgethilfe,
  Sektoransätze und Projekten verlangt a) „up-stream“ M&E Rahmen für
  Projekte und b) „down-stream“ Rahmen für die Wirkungsanalyse der
  Budgethilfe mit eher langfristigen Wirkungshorizonten
¾ Trotz Harmonisierung werden Landesprogramme und deren
  Evaluation wichtige Plattformen bleiben für:
  a) die Strategiefindung auf Geberseite (z.T. viele Stakeholder)
  b) Dokumentation der gemeinsamen Lernprozesse
  c) besseres Kontextverständnis für Design von Reformvorhaben
Querschnittsanalyse von Landesprogrammevaluationen               27.4.2006

¾ Landes- und Kooperationsstrategien sollten für die Wertediskussion mit
  den Partnern genutzt werden, trotz PRS bestehen unterschiedliche
  Sichtweisen (z.B. neu Strassen für Armutsbekämpfung?)
¾ Für LPEs sollte noch mehr Ownership bei den Empfängern liegen (ToR,
  lokale ExpertInnen, Balance der Interviewpartner), auch für Analysen
  des „Total ODA impacts“
¾ Gemeinsame LPEs wagen (gemeinsamer Rahmen, aber z.B. separate
  Fallstudien zu den Programmen bilateraler Geber)
Querschnittsanalyse von Landesprogrammevaluationen                                           27.4.2006

                                              Literatur
 Die hier verwendeten Landesprogrammevaluationen können von den
 entsprechenden Homepages herunter geladen werden:
 Danida:http://www.um.dk/en/menu/DevelopmentPolicy/Evaluations/
 DEZA:http://www.deza.admin.ch/index.php?navID=21413&langID=6&userhash=445f75561517c278f615
 b74db7683c20
 DFID:http://www.dfid.gov.uk/aboutdfid/performance/default.asp
 Sida:http://www.sida.se/sida/jsp/sida.jsp?d=118&m=result&publicationSeries=1363&language=en_US

 Weitere Schlüsseldokumente:
 DAC/OECD (1999): Evaluation and Aids Effectiveness, Evaluating Country Programmes, Vienna
 Workshop 1999.
 DAC/OECD (2005): Evaluating Total ODA Impact – Report of the workshop.
 DFID (2004): Evaluation of DFID Country Programmes, Synthesis Report.
 Sida (2002): Sida‘s Performance Analysis – Quality and use.
 World Bank (2005): Country Assistance Evaluation Retrospective, an OED Self-evaluation.
 Zürcher D. / Walther P. (2006): Comparative Assessment of Country Programme Evaluations
                    Lessons learned from Danida, DFID, SDC and Sida (in preparation)
Sie können auch lesen