Vertrauen bei der Kollaboration mit Schwerlastrobotik - Realstudie zum Einfluss von Geschwindigkeit und Systemfehler
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin Beitrag B.12.5 Digitaler Wandel, digitale Arbeit, digitaler Mensch? Vertrauen bei der Kollaboration mit Schwerlastrobotik – Realstudie zum Einfluss von Geschwindigkeit und Systemfehler Franziska LEGLER, Dorothea LANGER, Frank DITTRICH, Angelika C. BULLINGER Professur Arbeitswissenschaft und Innovationsmanagement TU Chemnitz, Erfenschlager Straße 73, D-09125 Chemnitz Kurzfassung: Aufgrund gesonderter Sicherheitsbestimmungen sind bisher wenige Anwendungen von schutzzaunloser Mensch-Roboter-Kollaboration (MRK) mit Schwerlastrobotik in der Industrie bekannt. Die Auswirkungen auf den Menschen sind entsprechend wenig erforscht. In einer Studie mit 14 Probanden wurde in einem pseudorealistischen Testfeld der Einfluss des MRK-Levels, der Geschwindigkeit sowie eines simulierten System- fehlers auf Vertrauen untersucht. Das Vertrauensniveau war über alle Be- dingungen hoch. Weder MRK-Level noch Geschwindigkeit zeigten Einfluss auf Vertrauen, Systemfehler reduzierten dieses signifikant. Die Ergebnisse erweitern Erkenntnisse zu übermäßigem Vertrauen in automatisierte Sys- teme auf den Bereich der Schwerlastrobotik und sollten entsprechend bei der Arbeitsplatzgestaltung berücksichtigt werden. Schlüsselwörter: Produkt- und Systemgestaltung, Mensch-Roboter-Kollaboration, Schwerlastrobotik, trust in automation 1. Motivation und Zielstellung Durch die Einführung der Mensch-Roboter-Kollaboration (MRK) in industriellen Produktionsumgebungen wird erwartet, dass MRK die Flexibilität immer komplexerer Prozesse ermöglicht (Oubari et al. 2018). So erhöht sich die Prozesseffizienz durch die Kombination der Wiederholgenauigkeit und Belastbarkeit von Robotern mit der Flexibilität und der Fähigkeit von Arbeitenden zur Lösung nicht näher präzisierter Problemstellungen (ISO/TS 15066 2016). MRK ist jedoch nur dann effizient, wenn Mensch und Roboter zusammenarbeiten, um ihre jeweiligen Stärken zu vereinen. Verschiedene Merkmale der Roboterinteraktion können die Zusammenarbeit mit dem Roboter beeinflussen. Bisherige Forschungsarbeiten untersuchten besonders Einflussfaktoren auf das Angsterleben, wobei sich überwiegend konsistente Einflüsse bezüglich Geschwindigkeit und Distanz zum Roboter zeigen ließen (Arai et al. 2010; Desai et al. 2013). Damit jedoch eine effiziente MRK möglich ist, ist unabhängig vom Angsterleben auch ein Vertrauen des Menschen in die Funktionsfähigkeit des Systems notwendig. Das Konzept des Vertrauens in Automatisierung (Trust in Automation) be- schreibt, wie der Mensch von den Empfehlungen, Aktionen und Entscheidungen eines künstlichen, intelligenten Unterstützungssystems überzeugt und bereit ist, auf dessen Grundlage zu handeln (Madsen & Gregor 2000). Misstrauen führt zur Ablehnung der Automation. Doch auch ein übermäßiges Vertrauen kann zu kritischenEreignissen füh- ren (Lee & See 2004). Übermäßiges Vertrauen reduziert das Situationsbewusstsein, daher ist für eine effiziente und sichere MRK ein angemessenes Maß an Vertrauen erforderlich (Hancock et al. 2011). Vertrauen ist immer dann notwendig, wenn die Um- welt eine gewisse Unsicherheit beinhaltet. Das wahrgenommene Risiko spielt somit 1 1
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin Beitrag B.12.5 Digitaler Wandel, digitale Arbeit, digitaler Mensch? eine entscheidende Rolle zur Entwicklung von Vertrauen in die Automatisierung (Hoff & Bashir 2014). Bekannte Einflussfaktoren des Angsterlebens sind daher womöglich auf Vertrauen übertragbar. Höhere Geschwindigkeiten und geringere Distanzen gehen mit geringeren Reaktionszeiten sowie einem aufgrund der Kraft erhöhten Verletzungs- risiko bei Kontakt mit dem Roboter einher. Unterschiedliche Distanzen zum Roboter ergeben sich aus dem am Arbeitsplatz umgesetzten MRK-Level (vgl. Bdiwi, Pfeifer & Sterzing 2017). Besonders sollte die Distanz im MRK-Level 1 (keine gemeinsame Auf- gabe, aber gemeinsamer Arbeitsbereich, bspw. realisiert mit einem Montagetisch) grö- ßer sein als im MRK-Level 2 (gemeinsame Aufgabe ohne physische Interaktion, bspw. als „dritter Arm“). MRK-Level 1 sowie geringere Geschwindigkeiten sollten damit ein höheres Sicherheitsempfinden und größeres Vertrauen erzeugen. Ein bereits in anderen Anwendungsbereichen erforschter Faktor für Vertrauen sind Systemfehler. Im Allgemeinen erwarten Menschen bereits vor dem Erstkontakt, dass Automatisierungen zuverlässig funktionieren (Dzindolet et al. 2003). Dadurch kommt es auch während der Interaktion mit Automation zu einer herabgesetzten Wachsam- keit (Parasuraman & Manzey 2010). Diese wiederum birgt bei Auftreten technischer Störungen während MRK das Risiko eines physischen Kontakts. Die Auswirkungen von Systemfehlern auf das Vertrauen werden besonders durch den first-failure effect (Wickens & Xu 2002) thematisiert. Der first-failure effect postuliert eine Reduktion des Vertrauens, nachdem der erste Fehler einer vermeintlich perfekten Automation auftrat. Der Effekt konnte bei der Fahrer-Fahrzeug- (Beggiato & Krems 2013) aber auch der Mensch-Roboter-Interaktion mit einem mobilen Roboter (Desai et al. 2013) bestätigt werden. Forschung im Bereich der MRK mit Schwerlastrobotik gibt es bisher nicht. Die Übertragbarkeit ist durch das höhere wahrgenommene Risiko aber wahrscheinlich. Um Erkenntnisse zu Einflussfaktoren des Vertrauens im Bereich der Interaktion mit Schwerlastrobotik zu erhalten, ergeben sich daraus drei Forschungsfragen, die durch ein Experiment in einem pseudorealistischen Testfeld beantwortet werden sollten. Welchen Effekt auf das Vertrauen bei der Interaktion mit Schwerlastrobotik haben: (1) die Geschwindigkeit, (2) das MRK-Level sowie (3) ein Systemfehler? 2. Methode 2.1 Testfeld Für das Experiment wurde ein industrieller KUKA-Roboter (Quantec prime KR 180), klassifiziert als Schwerlastroboter, in einer Testumgebung genutzt. Eine zonenbasierte Robotersteuerung ermöglichte zwei verschiedene MRK-Level (MRK-Level 1 bzw. 2 in Anlehnung an Bdiwi, Krusche & Putz 2017; vgl. Abbildung 1). Der pseudorealistische Arbeitsplatz beinhaltete in Anlehnung an einen realen Arbeitsplatz der Automobilin- dustrie die Montage von acht Klettpunkten auf einem Vorderachsträger. Aus Sicher- heitsgründen befanden sich die Probanden außerhalb der Roboterzelle, während der Roboter sich bewegte. Um dennoch den Eindruck des Verbleibens in der Roboterzelle zu erzeugen, wurde die Zelle visuell durch Grenzlinien am Boden und mittels Trenn- wänden vergrößert. Das Testfeld ermöglichte die Simulation eines technischen Sys- temfehlers durch das Öffnen eines Druckluftventils. Daraus resultierte ein abruptes, lautes Geräusch zu Beginn der Montageaufgabe. 2 2
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin Beitrag B.12.5 Digitaler Wandel, digitale Arbeit, digitaler Mensch? Abbildung 1: Reales Szenario (links), Vergleich von MRK-Level 1 (Mitte) und 2 (rechts). Bilder aus Probandenperspektive. Ablage des Bauteils im MRK-Level 1 nur simuliert. 2.2 Experimentelles Design und Durchführung Ein vollständiges 2 (Geschwindigkeit) x 2 (MRK-Level) within-Design wurde verwen- det. Das MRK-Level beinhaltete das MRK-Level 1 (hohe Distanz, Montage auf Monta- getisch) sowie MRK-Level 2 (Montage am Roboter) und teilte den Versuch in zwei randomisierte Blöcke, innerhalb derer die Geschwindigkeit (250 mm/s vs. 1000 mm/s) randomisiert variiert wurde. Jedes MRK-Level begann mit einer Baseline-Erhebung, während derer die Probanden die Montageaufgabe ohne Bewegung des Roboters üb- ten (vgl. Bortot et al. 2013). Zusätzlich wurde am Ende des Versuchs ein Szenario „Fehler“ durchgeführt. Das experimentelle Design resultierte in sieben Testblöcken (2 Baselines, 5 experimentelle Bedingungen). Nach jedem Testblock erfolgten kurze post-Szenario Befragungen. Hierbei wurde als abhängige Variable das Vertrauen (Skala trust der Jian-Skala; Pöhler et al. 2016; 6 Items, α = .90; Skala 1 bis 7) erhoben. In der Baseline wurden die Items als Erwartungshaltung umformuliert. Zu Beginn des Experiments wurden demografische Informationen wie Geschlecht, Alter sowie die Erfahrung mit Industrierobotern und Produktionsarbeit erfasst. An- schließend sahen sich die Probanden als Cover-Story (effiziente Gestaltung eines MRK-Arbeitsplatzes) ein Video des realen Arbeitsplatzes mit einem Handlingsgerät an. Den Probanden wurde die Montageaufgabe erläutert und sie wurden instruiert, dass die Kollaborationszone nur bei Stillstand des Roboters zu betreten sei. Jeder Testblock dauerte circa zwei Minuten und umfasste je drei Taktzyklen des Roboters. 2.3 Stichprobe und Datenanalyse Am Versuch nahmen 14 Probanden teil. Das Durchschnittsalter der Probanden be- trug 26.1 Jahre, 10 Probanden waren männlich und 4 weiblich. Der deutlich geringere Anteil von Frauen ist dabei repräsentativ für die Automobilindustrie (Kopel & Weber 2010). Etwas mehr als zwei Drittel der Probanden hatten zuvor bereits in einer belie- bigen Form Erfahrung mit einem Industrieroboter gesammelt. Ebenfalls waren zwei Drittel vor oder zum Zeitpunkt des Versuchs in der Produktionsindustrie tätig. Die Auswertung der Daten erfolgte, falls nicht anders angegeben, mittels nonpara- metrischer Verfahren in der Statistik-Software R (R Core Team 2018). 3. Ergebnisse Das Vertrauen war in allen Bedingungen hoch. Die Mittelwerte variierten zwischen M = 4.70 (Szenario „Fehler“) und M = 5.51 (Szenario „MRK-Level 2/langsam“; vgl. Abbildung 2). Das Vertrauen in den MRK-Bedingungen des MRK-Level 1 (p ≤ .055, r ≥ .361) und MRK-Level 2 (p ≤ .240, r ≥ .222) war höher als in der jeweiligen Baseline. 3 3
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin Beitrag B.12.5 Digitaler Wandel, digitale Arbeit, digitaler Mensch? Abbildung 2: Vertrauen nach Szenarien (BL = Baseline). 3.1 Effekt von Geschwindigkeit und MRK-Level Zur Ermittlung der Effekte von Geschwindigkeit und MRK-Level wurde ein Allgemei- nes Lineares Modell mit Greenhouse-Geisser Korrektur berechnet. Es ergaben sich nicht signifikante Haupteffekte von Geschwindigkeit (F = 0.142, p = .713, η² = .011) und MRK-Level (F = 0.23, p = .731, η² = .009) sowie ein nicht-signifikanter Interak- tionseffekt (F = 1.36, p = .265, η² = .094). In Anlehnung an Konventionen (Cohen, 1988) entsprechen beide Haupteffekte jedoch einem kleinen und der Interaktionseffekt einem mittleren Effekt. Im MRK-Level 1 war das Vertrauen bei hoher Geschwindigkeit größer (|Mdiff| = -0.20), im MRK-Level 2 dagegen bei niedriger Geschwindigkeit (|Mdiff| = -0.10). Die Mittelwertdifferenzen waren jedoch gering. 3.2 Effekt des Systemfehlers Das Szenario „Fehler“ führte zu den geringsten Vertrauenswerten (vgl. Abb. 2). Es ergaben sich kleine bis mittlere Effekte gegenüber den vier weiteren experimentellen Bedingungen (.215 ≤ r ≤ .385, .041 ≤ p ≤ .146). Zusätzlich wurde der Verlauf der Vertrauenswerte mittels eines chronologisch sor- tierten Datensatzes (unabhängig vom Szenario) ausgewertet. In Abbildung 3 ist nach der ersten Baseline im Testblock 2 ein Anstieg des Vertrauens zu erkennen (Z = -1.91, p = .055, r = .361). Nach einem stabilen Plateau sank das Vertrauen nach Testblock 6 durch den Systemfehler (Z = -1.60, p = .109, r = .303) bis nahezu auf das Ausgangs- niveau der Probanden zurück. Abbildung 3: Vertrauen im Zeitverlauf. Jeder Proband durchlief in Testblock 1 und 4 eine Baseline und im Testblock 7 das Fehler-Szenario (sonstige Testblöcke randomisiert). 4 4
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin Beitrag B.12.5 Digitaler Wandel, digitale Arbeit, digitaler Mensch? 4. Diskussion Ziel der Studie war es, Effekte von Geschwindigkeit, MRK-Level und eines simulier- ten Systemfehlers auf das Vertrauen bei der Interaktion mit Schwerlastrobotik durch ein Experiment in einer pseudorealistischen Testumgebung zu untersuchen. Geschwindigkeit und MRK-Level zeigten keinen bedeutsamen Einfluss auf das Ver- trauen. Der simulierte Systemfehler führte zwar zu einer Reduktion des Vertrauens, jedoch lag keine signifikante Abweichung zum Vertrauen in den Baseline-Bedingun- gen vor. Insgesamt bewirkte die tatsächliche Interaktion mit dem Roboter eine Steige- rung des Vertrauens im Vergleich zur vorherigen Erwartung der Probanden. Das Ver- trauen war übergreifend hoch, auch bei der Fehlersimulation, und stützt damit existie- rende Forschung bezüglich eines Positivity Bias und eines Übermaßes an Vertrauen in automatisierte Systeme aus anderen Anwendungsbereichen (z.B. Lee & See 2004; Dzindolet et al. 2003). Das experimentelle Design ermöglichte die Beantwortung der explorativen Frage- stellungen. Dennoch birgt das Design einige Limitationen. Im szenario-basierten An- satz dauerten die Interaktionen mit dem Roboter jeweils nur circa zwei Minuten. Aus- sagen zur weiteren Entwicklung des Vertrauens können daher nicht getroffen werden. Vorherige Untersuchungen zeigen jedoch, dass erste Erfahrungen mit automatisierten Systemen einen großen Einfluss auf die weitere Entwicklung des Vertrauens haben (Hartwich et al. 2019). Die kurze Interaktionszeit verhinderte möglicherweise das Ent- stehen eines Work-Flow Erlebens und die Post-Szenario Befragungen erhöhten zu- sätzlich die Salienz für die experimentelle Manipulation. Zudem wurde die Bauteilab- lage nur simuliert und die Probanden standen während der Roboterbewegungen ob- jektiv außerhalb der Roboterzelle. Diese Limitationen können in der Gesamtheit zum Eindruck einer stark künstlichen Situation führen und damit die Effekte der untersuch- ten Einflussfaktoren auf das Vertrauen reduziert haben. Schließlich fand der Versuch in einer Forschungsfabrik statt. Hohe Erwartungen der Probanden bezüglich der Si- cherheit der Versuchsumgebung könnten einen Einfluss auf die Ergebnisse gehabt haben. Es ist unklar, ob sich diese Erwartungen von denen von Produktionsmitarbei- tenden, die ebenfalls ein hohes Maß an Vertrauen gegenüber den ihnen zur Verfügung gestellten Arbeitsmitteln haben, unterscheiden. Aufgrund des gefundenen hohen Vertrauens in automatisierte Systeme sind beson- dere Anforderungen an die Sicherheit des Menschen bei der Interaktion mit Schwer- lastrobotik zu stellen. So könnten beispielsweise leichtsinnige Handlungen aus dem Übermaß an Vertrauen in die Funktionsfähigkeit des Systems resultieren, die durch Ausgestaltung der Technik sowie der MRK-Arbeitsplätze vermieden werden müssen. Um die Auswirkungen von übermäßigem Vertrauen zu verringern und die Sicherheit am Arbeitsplatz zu gewährleisten, sollten zudem Strategien zur Aufrechterhaltung des Situationsbewusstseins und zur Sensibilisierung für technische Automatisierungsbe- schränkungen erforscht werden. Darüber hinaus sollten im industriellen Kontext die Effekte eines verringerten Situationsbewusstseins und eines Übermaßes an Vertrauen für die Performanz und Prozesseffizienz untersucht werden. 5. Literaturverzeichnis Arai, T., Kato, R., & Fujita, M. (2010). Assessment of operator stress induced by robot collaboration in assembly. CIRP Annals, 59, 5-8. doi:10.1016/j.cirp.2010.03.043 5 5
GfA, Dortmund (Hrsg.): Frühjahrskongress 2020, Berlin Beitrag B.12.5 Digitaler Wandel, digitale Arbeit, digitaler Mensch? Bdiwi, M., Krusche, S., & Putz, M. (2017). Zone-Based Robot Control for Safe and Efficient Interaction between Human and Industrial Robots. Proceedings of the Companion of the 2017 ACM/IEEE Inter- national Conference on Human-Robot Interaction (HRI ’17), 83-84. doi:10.1145/3029798.3038413 Bdiwi, M., Pfeifer, M., & Sterzing, A. (2017). A new strategy for ensuring human safety during various levels of interaction with industrial robots. CIRP Annals, 66, 453-456.doi:10.1016/j.cirp.2017.04.009 Beggiato, M., & Krems, J.F. (2013). The evolution of mental model, trust and acceptance of adaptive cruise control in relation to initial information. Transportation Research Part F: Traffic Psychology and Behaviour, 18, 47–57. doi:10.1016/j.trf.2012.12.006. Bortot, D., Born, M., & Bengler, K. (2013). Directly or on detours? How should industrial robots approx- imate humans? In Proceedings of 8th ACM/IEEE International Conference on Human-Robot Inter- action (HRI ‘13), 89 90. Piscataway, USA: IEEE Press. doi:10.1109/HRI.2013.6483515 Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences. Hoboken: Taylor and Francis. Desai, M., Kaniarasu, P., Medvedev, M., Steinfeld, A., & Yanco, H. (2013). Impact of robot failures and feedback on real-time trust. In H. Kuzuoka, V. Evers, M. Imai, J. Forlizzi (Eds.), Proceedings of the 8th ACM/IEEE International Conference on Human-Robot Interaction (HRI ’13), 251-258. Pisca- taway, USA: IEEE Press. Dzindolet, M.T., Peterson, S.A., Pomranky, R.A., Pierce, L.G., & Beck, H.P. (2003). The role of trust in automation reliance. International Journal of Human–Computer Studies, 58, 697–718. doi:10.1016/S1071-5819(03)00038-7 Hancock, P.A., Billings, D.R., Schaefer, K.E., Chen, J.Y.C., de Visser, E.J., & Parasuraman, R. (2011). A meta-analysis of factors affecting trust in human-robot interaction. Human Factors, 53, 517–527. doi:10.1177/0018720811417254 Hartwich, F., Witzlack, C., Beggiato, M., & Krems, J. F. (2019). The first impression counts – A combined driving simulator and test track study on the development of trust and acceptance of highly auto- mated driving. Transportation Research: Part F, 65, 522–535. doi:10.1016/j.trf.2018.05.012 Hoff, K. A., & Bashir, M. (2015). Trust in automation: Integrating empirical evidence on factors that influence trust. Human Factors, 57, 407–434. https://doi.org/10.1177/0018720814547570 ISO/TS 15066:2016-02. Roboter und Robotikgeräte – Kollaborierende Roboter. Ausgabedatum: 2016- 02. Beuth-Verlag, Berlin. Kopel, M., & Weber, A. (2010). Frauenbeschäftigung in der Automobilindustrie. Retrieved from https://www.igmetall.de/download/0157928_langfassung_automobilindus- trie_10032010_483a2e0bcf73d4f229df5aaa968426f65a73ea53.pdf Lee, J.D., & See, K.A. (2004). Trust in Automation: Designing for Appropriate Reliance. Human Factors, 46, 50–80. doi:10.1518/hfes.46.1.50.30392 Madsen, M., & Gregor, S. (2000). Measuring Human-Computer Trust. In Proceedings of the 11th Aus- tralian Conference on Information Systems, Gladston, Australia, 6-8. doi:10.1.1.93.3874 Oubari, A., Pischke, D., Jenny, M., Meißner, A., & Trübswetter, A. (2018). Mensch-Roboter-Kollabora- tion in der Produktion: Motivation und Einstellungen von Entscheidungsträgern in produzierenden Unternehmen. ZWF Zeitschrift für wirtschaftlichen Fabrikbetrieb, 113, 560–564. doi:10.3139/104.111971 Parasuraman, R., & Manzey, D.H. (2010). Complacency and bias in human use of automation: An at- tentional integration. Human Factors, 52, 381–410. doi:10.1177/0018720810376055 Pöhler, G., Heine, T., & Deml, B. (2016). Itemanalyse und Faktorstruktur eines Fragebogens zur Mes- sung von Vertrauen im Umgang mit automatischen Systemen. Zeitschrift Für Arbeitswissenschaft, 70, 151–160. doi:10.1007/s41449-016-0024-9 R Core Team (2018). R: A language and environment for statistical computing. R Foundation for Statis- tical Computing, Vienna, Austria. URL https://www.R-project.org/. Wickens, C.D., Xu, X. (2002). Automation trust, reliability and attention (Tech. Rep.AHFD-0214/MAAD- 02-2). Savoy: University of Illinois, Aviation Research Lab. Danksagung: Diese Forschungsarbeit wurde vom Bundesministerium für Bildung und Forschung unterstützt (Projekt: 3DIMiR, 03ZZ0459D). Der Geldgeber hatte keinen Ein- fluss auf das Studiendesign, die Erhebung, Analyse und Interpretation der Daten, auf das Verfassen oder Einreichen des Berichts. Wir danken M. Bdiwi, L. Winkler und S. Hou vom Fraunhofer IWU in Chemnitz für die Unterstützung mit der Testumgebung. 6 6
Gesellschaft für Arbeitswissenschaft e.V. Digitale Arbeit, digitaler Wandel, digitaler Mensch? 66. Kongress der Gesellschaft für Arbeitswissenschaft TU Berlin Fachgebiet Mensch-Maschine-Systeme HU Berlin Professur Ingenieurpsychologie 16. – 18. März 2020, Berlin -Press Bericht zum 66. Arbeitswissenschaftlichen Kongress vom 16. – 18. März 2020 TU Berlin, Fachgebiet Mensch-Maschine-Systeme HU Berlin, Professur Ingenieurpsychologie Herausgegeben von der Gesellschaft für Arbeitswissenschaft e.V. Dortmund: GfA-Press, 2020 ISBN 978-3-936804-27-0 NE: Gesellschaft für Arbeitswissenschaft: Jahresdokumentation Als Manuskript zusammengestellt. Diese Jahresdokumentation ist nur in der Geschäftsstelle erhältlich. Alle Rechte vorbehalten. © GfA-Press, Dortmund Schriftleitung: Matthias Jäger im Auftrag der Gesellschaft für Arbeitswissenschaft e.V. Ohne ausdrückliche Genehmigung der Gesellschaft für Arbeitswissenschaft e.V. ist es nicht gestattet: - den Kongressband oder Teile daraus in irgendeiner Form (durch Fotokopie, Mikrofilm oder ein anderes Verfahren) zu vervielfältigen, - den Kongressband oder Teile daraus in Print- und/oder Nonprint-Medien (Webseiten, Blog, Social Media) zu verbreiten. Die Verantwortung für die Inhalte der Beiträge tragen alleine die jeweiligen Verfasser; die GfA haftet nicht für die weitere Verwendung der darin enthaltenen Angaben. Screen design und Umsetzung © 2020 fröse multimedia, Frank Fröse office@internetkundenservice.de · www.internetkundenservice.de
Sie können auch lesen