Vertrauen bei der Kollaboration mit Schwerlastrobotik - Realstudie zum Einfluss von Geschwindigkeit und Systemfehler

 
WEITER LESEN
Vertrauen bei der Kollaboration mit Schwerlastrobotik - Realstudie zum Einfluss von Geschwindigkeit und Systemfehler
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin                    Beitrag B.12.5
Digitaler Wandel, digitale Arbeit, digitaler Mensch?

     Vertrauen bei der Kollaboration mit Schwerlastrobotik –
  Realstudie zum Einfluss von Geschwindigkeit und Systemfehler
Franziska LEGLER, Dorothea LANGER, Frank DITTRICH, Angelika C. BULLINGER

              Professur Arbeitswissenschaft und Innovationsmanagement
              TU Chemnitz, Erfenschlager Straße 73, D-09125 Chemnitz

      Kurzfassung: Aufgrund gesonderter Sicherheitsbestimmungen sind bisher
      wenige Anwendungen von schutzzaunloser Mensch-Roboter-Kollaboration
      (MRK) mit Schwerlastrobotik in der Industrie bekannt. Die Auswirkungen
      auf den Menschen sind entsprechend wenig erforscht. In einer Studie mit
      14 Probanden wurde in einem pseudorealistischen Testfeld der Einfluss
      des MRK-Levels, der Geschwindigkeit sowie eines simulierten System-
      fehlers auf Vertrauen untersucht. Das Vertrauensniveau war über alle Be-
      dingungen hoch. Weder MRK-Level noch Geschwindigkeit zeigten Einfluss
      auf Vertrauen, Systemfehler reduzierten dieses signifikant. Die Ergebnisse
      erweitern Erkenntnisse zu übermäßigem Vertrauen in automatisierte Sys-
      teme auf den Bereich der Schwerlastrobotik und sollten entsprechend bei
      der Arbeitsplatzgestaltung berücksichtigt werden.

      Schlüsselwörter: Produkt- und Systemgestaltung,
      Mensch-Roboter-Kollaboration, Schwerlastrobotik, trust in automation

1. Motivation und Zielstellung

   Durch die Einführung der Mensch-Roboter-Kollaboration (MRK) in industriellen
Produktionsumgebungen wird erwartet, dass MRK die Flexibilität immer komplexerer
Prozesse ermöglicht (Oubari et al. 2018). So erhöht sich die Prozesseffizienz durch
die Kombination der Wiederholgenauigkeit und Belastbarkeit von Robotern mit der
Flexibilität und der Fähigkeit von Arbeitenden zur Lösung nicht näher präzisierter
Problemstellungen (ISO/TS 15066 2016). MRK ist jedoch nur dann effizient, wenn
Mensch und Roboter zusammenarbeiten, um ihre jeweiligen Stärken zu vereinen.
   Verschiedene Merkmale der Roboterinteraktion können die Zusammenarbeit mit
dem Roboter beeinflussen. Bisherige Forschungsarbeiten untersuchten besonders
Einflussfaktoren auf das Angsterleben, wobei sich überwiegend konsistente Einflüsse
bezüglich Geschwindigkeit und Distanz zum Roboter zeigen ließen (Arai et al. 2010;
Desai et al. 2013). Damit jedoch eine effiziente MRK möglich ist, ist unabhängig vom
Angsterleben auch ein Vertrauen des Menschen in die Funktionsfähigkeit des Systems
notwendig. Das Konzept des Vertrauens in Automatisierung (Trust in Automation) be-
schreibt, wie der Mensch von den Empfehlungen, Aktionen und Entscheidungen eines
künstlichen, intelligenten Unterstützungssystems überzeugt und bereit ist, auf dessen
Grundlage zu handeln (Madsen & Gregor 2000). Misstrauen führt zur Ablehnung der
Automation. Doch auch ein übermäßiges Vertrauen kann zu kritischenEreignissen füh-
ren (Lee & See 2004). Übermäßiges Vertrauen reduziert das Situationsbewusstsein,
daher ist für eine effiziente und sichere MRK ein angemessenes Maß an Vertrauen
erforderlich (Hancock et al. 2011). Vertrauen ist immer dann notwendig, wenn die Um-
welt eine gewisse Unsicherheit beinhaltet. Das wahrgenommene Risiko spielt somit

                                                1
                                           1
Vertrauen bei der Kollaboration mit Schwerlastrobotik - Realstudie zum Einfluss von Geschwindigkeit und Systemfehler
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin                      Beitrag B.12.5
Digitaler Wandel, digitale Arbeit, digitaler Mensch?

eine entscheidende Rolle zur Entwicklung von Vertrauen in die Automatisierung (Hoff
& Bashir 2014). Bekannte Einflussfaktoren des Angsterlebens sind daher womöglich
auf Vertrauen übertragbar. Höhere Geschwindigkeiten und geringere Distanzen gehen
mit geringeren Reaktionszeiten sowie einem aufgrund der Kraft erhöhten Verletzungs-
risiko bei Kontakt mit dem Roboter einher. Unterschiedliche Distanzen zum Roboter
ergeben sich aus dem am Arbeitsplatz umgesetzten MRK-Level (vgl. Bdiwi, Pfeifer &
Sterzing 2017). Besonders sollte die Distanz im MRK-Level 1 (keine gemeinsame Auf-
gabe, aber gemeinsamer Arbeitsbereich, bspw. realisiert mit einem Montagetisch) grö-
ßer sein als im MRK-Level 2 (gemeinsame Aufgabe ohne physische Interaktion, bspw.
als „dritter Arm“). MRK-Level 1 sowie geringere Geschwindigkeiten sollten damit ein
höheres Sicherheitsempfinden und größeres Vertrauen erzeugen.
    Ein bereits in anderen Anwendungsbereichen erforschter Faktor für Vertrauen sind
Systemfehler. Im Allgemeinen erwarten Menschen bereits vor dem Erstkontakt, dass
Automatisierungen zuverlässig funktionieren (Dzindolet et al. 2003). Dadurch kommt
es auch während der Interaktion mit Automation zu einer herabgesetzten Wachsam-
keit (Parasuraman & Manzey 2010). Diese wiederum birgt bei Auftreten technischer
Störungen während MRK das Risiko eines physischen Kontakts. Die Auswirkungen
von Systemfehlern auf das Vertrauen werden besonders durch den first-failure effect
(Wickens & Xu 2002) thematisiert. Der first-failure effect postuliert eine Reduktion des
Vertrauens, nachdem der erste Fehler einer vermeintlich perfekten Automation auftrat.
Der Effekt konnte bei der Fahrer-Fahrzeug- (Beggiato & Krems 2013) aber auch der
Mensch-Roboter-Interaktion mit einem mobilen Roboter (Desai et al. 2013) bestätigt
werden. Forschung im Bereich der MRK mit Schwerlastrobotik gibt es bisher nicht. Die
Übertragbarkeit ist durch das höhere wahrgenommene Risiko aber wahrscheinlich.
    Um Erkenntnisse zu Einflussfaktoren des Vertrauens im Bereich der Interaktion mit
Schwerlastrobotik zu erhalten, ergeben sich daraus drei Forschungsfragen, die durch
ein Experiment in einem pseudorealistischen Testfeld beantwortet werden sollten.

Welchen Effekt auf das Vertrauen bei der Interaktion mit Schwerlastrobotik haben:
(1) die Geschwindigkeit, (2) das MRK-Level sowie (3) ein Systemfehler?

2. Methode

2.1 Testfeld

   Für das Experiment wurde ein industrieller KUKA-Roboter (Quantec prime KR 180),
klassifiziert als Schwerlastroboter, in einer Testumgebung genutzt. Eine zonenbasierte
Robotersteuerung ermöglichte zwei verschiedene MRK-Level (MRK-Level 1 bzw. 2 in
Anlehnung an Bdiwi, Krusche & Putz 2017; vgl. Abbildung 1). Der pseudorealistische
Arbeitsplatz beinhaltete in Anlehnung an einen realen Arbeitsplatz der Automobilin-
dustrie die Montage von acht Klettpunkten auf einem Vorderachsträger. Aus Sicher-
heitsgründen befanden sich die Probanden außerhalb der Roboterzelle, während der
Roboter sich bewegte. Um dennoch den Eindruck des Verbleibens in der Roboterzelle
zu erzeugen, wurde die Zelle visuell durch Grenzlinien am Boden und mittels Trenn-
wänden vergrößert. Das Testfeld ermöglichte die Simulation eines technischen Sys-
temfehlers durch das Öffnen eines Druckluftventils. Daraus resultierte ein abruptes,
lautes Geräusch zu Beginn der Montageaufgabe.

                                                2
                                           2
Vertrauen bei der Kollaboration mit Schwerlastrobotik - Realstudie zum Einfluss von Geschwindigkeit und Systemfehler
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin                                Beitrag B.12.5
Digitaler Wandel, digitale Arbeit, digitaler Mensch?

Abbildung 1:   Reales Szenario (links), Vergleich von MRK-Level 1 (Mitte) und 2 (rechts). Bilder aus
               Probandenperspektive. Ablage des Bauteils im MRK-Level 1 nur simuliert.

2.2 Experimentelles Design und Durchführung

   Ein vollständiges 2 (Geschwindigkeit) x 2 (MRK-Level) within-Design wurde verwen-
det. Das MRK-Level beinhaltete das MRK-Level 1 (hohe Distanz, Montage auf Monta-
getisch) sowie MRK-Level 2 (Montage am Roboter) und teilte den Versuch in zwei
randomisierte Blöcke, innerhalb derer die Geschwindigkeit (250 mm/s vs. 1000 mm/s)
randomisiert variiert wurde. Jedes MRK-Level begann mit einer Baseline-Erhebung,
während derer die Probanden die Montageaufgabe ohne Bewegung des Roboters üb-
ten (vgl. Bortot et al. 2013). Zusätzlich wurde am Ende des Versuchs ein Szenario
„Fehler“ durchgeführt. Das experimentelle Design resultierte in sieben Testblöcken (2
Baselines, 5 experimentelle Bedingungen). Nach jedem Testblock erfolgten kurze
post-Szenario Befragungen. Hierbei wurde als abhängige Variable das Vertrauen
(Skala trust der Jian-Skala; Pöhler et al. 2016; 6 Items, α = .90; Skala 1 bis 7) erhoben.
In der Baseline wurden die Items als Erwartungshaltung umformuliert.
   Zu Beginn des Experiments wurden demografische Informationen wie Geschlecht,
Alter sowie die Erfahrung mit Industrierobotern und Produktionsarbeit erfasst. An-
schließend sahen sich die Probanden als Cover-Story (effiziente Gestaltung eines
MRK-Arbeitsplatzes) ein Video des realen Arbeitsplatzes mit einem Handlingsgerät
an. Den Probanden wurde die Montageaufgabe erläutert und sie wurden instruiert,
dass die Kollaborationszone nur bei Stillstand des Roboters zu betreten sei. Jeder
Testblock dauerte circa zwei Minuten und umfasste je drei Taktzyklen des Roboters.

2.3 Stichprobe und Datenanalyse

   Am Versuch nahmen 14 Probanden teil. Das Durchschnittsalter der Probanden be-
trug 26.1 Jahre, 10 Probanden waren männlich und 4 weiblich. Der deutlich geringere
Anteil von Frauen ist dabei repräsentativ für die Automobilindustrie (Kopel & Weber
2010). Etwas mehr als zwei Drittel der Probanden hatten zuvor bereits in einer belie-
bigen Form Erfahrung mit einem Industrieroboter gesammelt. Ebenfalls waren zwei
Drittel vor oder zum Zeitpunkt des Versuchs in der Produktionsindustrie tätig.
   Die Auswertung der Daten erfolgte, falls nicht anders angegeben, mittels nonpara-
metrischer Verfahren in der Statistik-Software R (R Core Team 2018).

3. Ergebnisse

   Das Vertrauen war in allen Bedingungen hoch. Die Mittelwerte variierten zwischen
M = 4.70 (Szenario „Fehler“) und M = 5.51 (Szenario „MRK-Level 2/langsam“; vgl.
Abbildung 2). Das Vertrauen in den MRK-Bedingungen des MRK-Level 1 (p ≤ .055,
r ≥ .361) und MRK-Level 2 (p ≤ .240, r ≥ .222) war höher als in der jeweiligen Baseline.

                                                 3
                                           3
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin                                 Beitrag B.12.5
Digitaler Wandel, digitale Arbeit, digitaler Mensch?

Abbildung 2:   Vertrauen nach Szenarien (BL = Baseline).

3.1 Effekt von Geschwindigkeit und MRK-Level

   Zur Ermittlung der Effekte von Geschwindigkeit und MRK-Level wurde ein Allgemei-
nes Lineares Modell mit Greenhouse-Geisser Korrektur berechnet. Es ergaben sich
nicht signifikante Haupteffekte von Geschwindigkeit (F = 0.142, p = .713, η² = .011)
und MRK-Level (F = 0.23, p = .731, η² = .009) sowie ein nicht-signifikanter Interak-
tionseffekt (F = 1.36, p = .265, η² = .094). In Anlehnung an Konventionen (Cohen,
1988) entsprechen beide Haupteffekte jedoch einem kleinen und der Interaktionseffekt
einem mittleren Effekt. Im MRK-Level 1 war das Vertrauen bei hoher Geschwindigkeit
größer (|Mdiff| = -0.20), im MRK-Level 2 dagegen bei niedriger Geschwindigkeit
(|Mdiff| = -0.10). Die Mittelwertdifferenzen waren jedoch gering.

3.2 Effekt des Systemfehlers

   Das Szenario „Fehler“ führte zu den geringsten Vertrauenswerten (vgl. Abb. 2). Es
ergaben sich kleine bis mittlere Effekte gegenüber den vier weiteren experimentellen
Bedingungen (.215 ≤ r ≤ .385, .041 ≤ p ≤ .146).
   Zusätzlich wurde der Verlauf der Vertrauenswerte mittels eines chronologisch sor-
tierten Datensatzes (unabhängig vom Szenario) ausgewertet. In Abbildung 3 ist nach
der ersten Baseline im Testblock 2 ein Anstieg des Vertrauens zu erkennen (Z = -1.91,
p = .055, r = .361). Nach einem stabilen Plateau sank das Vertrauen nach Testblock 6
durch den Systemfehler (Z = -1.60, p = .109, r = .303) bis nahezu auf das Ausgangs-
niveau der Probanden zurück.

Abbildung 3:   Vertrauen im Zeitverlauf. Jeder Proband durchlief in Testblock 1 und 4 eine Baseline
               und im Testblock 7 das Fehler-Szenario (sonstige Testblöcke randomisiert).

                                                 4
                                            4
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin                                    Beitrag B.12.5
Digitaler Wandel, digitale Arbeit, digitaler Mensch?

4. Diskussion

   Ziel der Studie war es, Effekte von Geschwindigkeit, MRK-Level und eines simulier-
ten Systemfehlers auf das Vertrauen bei der Interaktion mit Schwerlastrobotik durch
ein Experiment in einer pseudorealistischen Testumgebung zu untersuchen.
   Geschwindigkeit und MRK-Level zeigten keinen bedeutsamen Einfluss auf das Ver-
trauen. Der simulierte Systemfehler führte zwar zu einer Reduktion des Vertrauens,
jedoch lag keine signifikante Abweichung zum Vertrauen in den Baseline-Bedingun-
gen vor. Insgesamt bewirkte die tatsächliche Interaktion mit dem Roboter eine Steige-
rung des Vertrauens im Vergleich zur vorherigen Erwartung der Probanden. Das Ver-
trauen war übergreifend hoch, auch bei der Fehlersimulation, und stützt damit existie-
rende Forschung bezüglich eines Positivity Bias und eines Übermaßes an Vertrauen
in automatisierte Systeme aus anderen Anwendungsbereichen (z.B. Lee & See 2004;
Dzindolet et al. 2003).
   Das experimentelle Design ermöglichte die Beantwortung der explorativen Frage-
stellungen. Dennoch birgt das Design einige Limitationen. Im szenario-basierten An-
satz dauerten die Interaktionen mit dem Roboter jeweils nur circa zwei Minuten. Aus-
sagen zur weiteren Entwicklung des Vertrauens können daher nicht getroffen werden.
Vorherige Untersuchungen zeigen jedoch, dass erste Erfahrungen mit automatisierten
Systemen einen großen Einfluss auf die weitere Entwicklung des Vertrauens haben
(Hartwich et al. 2019). Die kurze Interaktionszeit verhinderte möglicherweise das Ent-
stehen eines Work-Flow Erlebens und die Post-Szenario Befragungen erhöhten zu-
sätzlich die Salienz für die experimentelle Manipulation. Zudem wurde die Bauteilab-
lage nur simuliert und die Probanden standen während der Roboterbewegungen ob-
jektiv außerhalb der Roboterzelle. Diese Limitationen können in der Gesamtheit zum
Eindruck einer stark künstlichen Situation führen und damit die Effekte der untersuch-
ten Einflussfaktoren auf das Vertrauen reduziert haben. Schließlich fand der Versuch
in einer Forschungsfabrik statt. Hohe Erwartungen der Probanden bezüglich der Si-
cherheit der Versuchsumgebung könnten einen Einfluss auf die Ergebnisse gehabt
haben. Es ist unklar, ob sich diese Erwartungen von denen von Produktionsmitarbei-
tenden, die ebenfalls ein hohes Maß an Vertrauen gegenüber den ihnen zur Verfügung
gestellten Arbeitsmitteln haben, unterscheiden.
   Aufgrund des gefundenen hohen Vertrauens in automatisierte Systeme sind beson-
dere Anforderungen an die Sicherheit des Menschen bei der Interaktion mit Schwer-
lastrobotik zu stellen. So könnten beispielsweise leichtsinnige Handlungen aus dem
Übermaß an Vertrauen in die Funktionsfähigkeit des Systems resultieren, die durch
Ausgestaltung der Technik sowie der MRK-Arbeitsplätze vermieden werden müssen.
Um die Auswirkungen von übermäßigem Vertrauen zu verringern und die Sicherheit
am Arbeitsplatz zu gewährleisten, sollten zudem Strategien zur Aufrechterhaltung des
Situationsbewusstseins und zur Sensibilisierung für technische Automatisierungsbe-
schränkungen erforscht werden. Darüber hinaus sollten im industriellen Kontext die
Effekte eines verringerten Situationsbewusstseins und eines Übermaßes an Vertrauen
für die Performanz und Prozesseffizienz untersucht werden.

5. Literaturverzeichnis

Arai, T., Kato, R., & Fujita, M. (2010). Assessment of operator stress induced by robot collaboration in
   assembly. CIRP Annals, 59, 5-8. doi:10.1016/j.cirp.2010.03.043

                                                   5
                                              5
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin                                     Beitrag B.12.5
Digitaler Wandel, digitale Arbeit, digitaler Mensch?

Bdiwi, M., Krusche, S., & Putz, M. (2017). Zone-Based Robot Control for Safe and Efficient Interaction
   between Human and Industrial Robots. Proceedings of the Companion of the 2017 ACM/IEEE Inter-
   national Conference on Human-Robot Interaction (HRI ’17), 83-84. doi:10.1145/3029798.3038413
Bdiwi, M., Pfeifer, M., & Sterzing, A. (2017). A new strategy for ensuring human safety during various
   levels of interaction with industrial robots. CIRP Annals, 66, 453-456.doi:10.1016/j.cirp.2017.04.009
Beggiato, M., & Krems, J.F. (2013). The evolution of mental model, trust and acceptance of adaptive
   cruise control in relation to initial information. Transportation Research Part F: Traffic Psychology
   and Behaviour, 18, 47–57. doi:10.1016/j.trf.2012.12.006.
Bortot, D., Born, M., & Bengler, K. (2013). Directly or on detours? How should industrial robots approx-
   imate humans? In Proceedings of 8th ACM/IEEE International Conference on Human-Robot Inter-
   action (HRI ‘13), 89 90. Piscataway, USA: IEEE Press. doi:10.1109/HRI.2013.6483515
Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences. Hoboken: Taylor and Francis.
Desai, M., Kaniarasu, P., Medvedev, M., Steinfeld, A., & Yanco, H. (2013). Impact of robot failures and
   feedback on real-time trust. In H. Kuzuoka, V. Evers, M. Imai, J. Forlizzi (Eds.), Proceedings of the
   8th ACM/IEEE International Conference on Human-Robot Interaction (HRI ’13), 251-258. Pisca-
   taway, USA: IEEE Press.
Dzindolet, M.T., Peterson, S.A., Pomranky, R.A., Pierce, L.G., & Beck, H.P. (2003). The role of trust in
   automation reliance. International Journal of Human–Computer Studies, 58, 697–718.
   doi:10.1016/S1071-5819(03)00038-7
Hancock, P.A., Billings, D.R., Schaefer, K.E., Chen, J.Y.C., de Visser, E.J., & Parasuraman, R. (2011).
   A meta-analysis of factors affecting trust in human-robot interaction. Human Factors, 53, 517–527.
   doi:10.1177/0018720811417254
Hartwich, F., Witzlack, C., Beggiato, M., & Krems, J. F. (2019). The first impression counts – A combined
   driving simulator and test track study on the development of trust and acceptance of highly auto-
   mated driving. Transportation Research: Part F, 65, 522–535. doi:10.1016/j.trf.2018.05.012
Hoff, K. A., & Bashir, M. (2015). Trust in automation: Integrating empirical evidence on factors that
   influence trust. Human Factors, 57, 407–434. https://doi.org/10.1177/0018720814547570
ISO/TS 15066:2016-02. Roboter und Robotikgeräte – Kollaborierende Roboter. Ausgabedatum: 2016-
   02. Beuth-Verlag, Berlin.
Kopel, M., & Weber, A. (2010). Frauenbeschäftigung in der Automobilindustrie. Retrieved from
   https://www.igmetall.de/download/0157928_langfassung_automobilindus-
   trie_10032010_483a2e0bcf73d4f229df5aaa968426f65a73ea53.pdf
Lee, J.D., & See, K.A. (2004). Trust in Automation: Designing for Appropriate Reliance. Human Factors,
   46, 50–80. doi:10.1518/hfes.46.1.50.30392
Madsen, M., & Gregor, S. (2000). Measuring Human-Computer Trust. In Proceedings of the 11th Aus-
   tralian Conference on Information Systems, Gladston, Australia, 6-8. doi:10.1.1.93.3874
Oubari, A., Pischke, D., Jenny, M., Meißner, A., & Trübswetter, A. (2018). Mensch-Roboter-Kollabora-
   tion in der Produktion: Motivation und Einstellungen von Entscheidungsträgern in produzierenden
   Unternehmen.        ZWF      Zeitschrift    für   wirtschaftlichen   Fabrikbetrieb,   113,    560–564.
   doi:10.3139/104.111971
Parasuraman, R., & Manzey, D.H. (2010). Complacency and bias in human use of automation: An at-
   tentional integration. Human Factors, 52, 381–410. doi:10.1177/0018720810376055
Pöhler, G., Heine, T., & Deml, B. (2016). Itemanalyse und Faktorstruktur eines Fragebogens zur Mes-
   sung von Vertrauen im Umgang mit automatischen Systemen. Zeitschrift Für Arbeitswissenschaft,
   70, 151–160. doi:10.1007/s41449-016-0024-9
R Core Team (2018). R: A language and environment for statistical computing. R Foundation for Statis-
   tical Computing, Vienna, Austria. URL https://www.R-project.org/.
Wickens, C.D., Xu, X. (2002). Automation trust, reliability and attention (Tech. Rep.AHFD-0214/MAAD-
   02-2). Savoy: University of Illinois, Aviation Research Lab.

Danksagung: Diese Forschungsarbeit wurde vom Bundesministerium für Bildung und
Forschung unterstützt (Projekt: 3DIMiR, 03ZZ0459D). Der Geldgeber hatte keinen Ein-
fluss auf das Studiendesign, die Erhebung, Analyse und Interpretation der Daten, auf
das Verfassen oder Einreichen des Berichts. Wir danken M. Bdiwi, L. Winkler und S.
Hou vom Fraunhofer IWU in Chemnitz für die Unterstützung mit der Testumgebung.

                                                    6
                                              6
Gesellschaft für
                                    Arbeitswissenschaft e.V.

                                    Digitale Arbeit,
                                    digitaler Wandel,
                                    digitaler Mensch?
                                    66. Kongress der
                                    Gesellschaft für Arbeitswissenschaft

                                    TU Berlin
                                    Fachgebiet Mensch-Maschine-Systeme
                                    HU Berlin
                                    Professur Ingenieurpsychologie

                                    16. – 18. März 2020, Berlin

        -Press
Bericht zum 66. Arbeitswissenschaftlichen Kongress vom 16. – 18. März 2020

TU Berlin, Fachgebiet Mensch-Maschine-Systeme
HU Berlin, Professur Ingenieurpsychologie
Herausgegeben von der Gesellschaft für Arbeitswissenschaft e.V.
Dortmund: GfA-Press, 2020
ISBN 978-3-936804-27-0
NE: Gesellschaft für Arbeitswissenschaft: Jahresdokumentation
Als Manuskript zusammengestellt. Diese Jahresdokumentation ist nur in der Geschäftsstelle erhältlich.
Alle Rechte vorbehalten.
© GfA-Press, Dortmund
Schriftleitung: Matthias Jäger
im Auftrag der Gesellschaft für Arbeitswissenschaft e.V.
Ohne ausdrückliche Genehmigung der Gesellschaft für Arbeitswissenschaft e.V. ist es nicht gestattet:
    - den Kongressband oder Teile daraus in irgendeiner Form (durch Fotokopie, Mikrofilm oder ein
      anderes Verfahren) zu vervielfältigen,
    - den Kongressband oder Teile daraus in Print- und/oder Nonprint-Medien (Webseiten, Blog,
      Social Media) zu verbreiten.
Die Verantwortung für die Inhalte der Beiträge tragen alleine die jeweiligen Verfasser; die GfA haftet
nicht für die weitere Verwendung der darin enthaltenen Angaben.
Screen design und Umsetzung
© 2020 fröse multimedia, Frank Fröse
office@internetkundenservice.de · www.internetkundenservice.de
Sie können auch lesen