<html><body><div style="font-family: trebuchet ms,sans-serif; font-size: 12pt; color: #000000"><div><span style="font-size: 12pt;">Please, accept our apologies in case of multiple copies of this CFP. </span><br></div><div data-marker="__QUOTED_TEXT__"><div style="font-family:'trebuchet ms' , sans-serif;font-size:12pt;color:#000000"><br><div>*************************************************************************************************************************************</div><br><div>The 5th International Workshop on EXplainable and TRAnsparent AI and Multi-Agent Systems (EXTRAAMAS)</div><br><div>https://extraamas.ehealth.hevs.ch/index.html</div><br><div>in conjunction with AAMAS 2023, London, 29 May- 2 June 2023</div><br><div>https://aamas2023.soton.ac.uk/</div><br><div>**************************************************************************************************************************************</div><div>Aim and Scope</div><div>==============</div><br><div>Running since 2019, EXTRAAMAS is a well-established workshop and forum on EXplainable and TRAnsparent AI and Multi-Agent Systems. It aims to discuss and disseminate research on explainable artificial intelligence, with a particular focus on intra/inter-agent explainability and cross-disciplinary perspectives. In its 5th edition, EXTRAAMAS identifies four particular focus topics with the ultimate goal of strengthening cutting-edge foundational and applied research. This of course comes in addition to the main theme of the workshop, focused as usual on XAI fundamentals. The four tracks for this year are:</div><div>- Track 1: XAI in symbolic and subsymbolic AI: the “AI dichotomy” separating symbolic AKA classical AI from connectionism AI has been persistent for more than seven decades. Nevertheless, the advent of explainable AI has accelerated and intensified the efforts to bridge this gap, since providing faithful explanations of black-box machine learning techniques would necessarily mean combining symbolic and subsymbolic AI. This track aims at discussing the recent works on this hot topic of AI.</div><div>Track chair: Dr. Giovanni Ciatto, University of Bologna, Italy.</div><br><div>- Track 2: XAI in negotiation and conflict resolution: Conflict resolution (e.g., agent-based negotiation, voting, argumentation, etc.) has been a prosperous domain within the MAS community since its foundation. However, as agents and the problems they are tackling become more complex, incorporating explainability becomes vital to assess the usefulness of the supposedly conflict-free solution. This is the main topic of this track, with a special focus on MAS negotiation and explainability.</div><div>Track Chair: Dr. Reyhan Aydoğan: Ozyegin University, Turkey</div><br><div>- Track 3: Explainable Robots and Practical Applications: Explainable robots have been one of the main topics of XAI for several years. The main interest of this track is to publish the latest works whose focus is notably on (i) the impact of embodiment on explanation, (ii) explainability for remote robots, (iii) how humans receive and perceive explanations by robots, and (iv) practical XAI applications & simulations.</div><div>Track chair: Dr. Yazan Mualla, UTBM, France</div><br><div>- Track 4: XAI in Law and Ethics: complying with regulation (e.g. GDPR) is among the main objectives for XAI. The right to explanation is key to ensuring transparency of ever more complex AI systems dealing with a multitude of sensitive AI applications. This track discusses works related to explainability in AI ethics, machine ethics, and AI & Law.</div><div>Track chair: Rachele Cari, University of Bologna, Italy</div><br><div>This year EXTRAAMAS will feature a keynote entitled “untrustworthy AI” delivered by Jeremy Pitt, Professor of Intelligent and Self-organizing Systems in the Department of Electrical and Electronic Engineering at Imperial College London (UK).</div><div>Moreover, EXTRAAMAS will offer a tutorial on reusable explainable technologies given by Dr. Giovanni Ciatto and Mr. Victor Hugo Contreras.</div><br><div>All accepted papers are eligible for publication in the Springer Lecture Notes of Artificial Intelligence conference proceedings (after revisions have been applied).</div><br><br><div>Important Dates</div><div>================</div><div>Paper submission: 01/03/2023</div><div>Notification of acceptance: 25/03/2023</div><div>Workshop: 29/05/2023</div><div>Camera-ready (for Springer post-proceedings): 10/06/2023</div><div>Submission link: https://easychair.org/conferences/?conf=extraamas2023</div><br><br><div>EXTRAAMAS Tracks and Topics</div><div>===========================</div><br><div># Track1: XAI in symbolic and subsymbolic AI</div><div>-XAI for Machine learning</div><div>-Explainable neural networks</div><div>-Symbolic knowledge injection or extraction</div><div>-Neuro-symbolic computation</div><div>-Computational logic for XAI</div><div>-Multi-agent architectures for XAI</div><div>-Surrogate models for sub-symbolic predictors</div><div>-Explainable planning (XAIP)</div><div>-XAI evaluation</div><br><div># Track2: XAI in negotiation and conflict resolution</div><div>-Explainable conflict resolution techniques/frameworks</div><div>-Explainable negotiation protocols and strategies</div><div>-Explainable recommendation systems</div><div>-Trustworthy voting mechanisms</div><div>-Argumentation for explaining the process itself</div><div>-Argumentation for explaining and supporting the potential outcomes</div><div>-Explainable user/agent profiling (e.g., learning user's preferences or strategies)</div><div>-User studies and assessment of the aforementioned approaches</div><div>-Applications (virtual coaches, robots, IoT)</div><br><div># Track3: Explainable Robots and Practical Applications</div><div>-Explainable remote robots</div><div>-Explainability and embodiment</div><div>-Practical XAI applications</div><div>-Emotions in XAI</div><div>-Perception in XAI</div><div>-Human-Robot Interaction (HRI) studies</div><div>-Communication and reception of explanations</div><div>-Agent simulations and XAI</div><br><div># Track4: (X)AI in Law, and Ethics</div><div>-XAI in AI & Law</div><div>-Fair AI</div><div>-XAI & Machine Ethics</div><div>-Bias reduction</div><div>-Deception and XAI</div><div>-Persuasive technologies and XAI</div><div>-Nudging and XAI</div><div>-Legal issues of XAI</div><div>-Liability and XAI</div><div>-XAI, Transparency, and the Law</div><div>-Enforceability and XAI</div><div>-Culture-aware systems and XAI</div><br><br><div>Workshop Chairs</div><div>===============</div><br><div>Dr. Davide Calvaresi, HES-SO, Switzerland</div><div>research areas: Real-Time Multi-Agent Systems, Explainable AI, Blockchain, eHealth, Assistive/Embedded Systems</div><div>mail: davide.calvaresi@hevs.ch, web page, Google.scholar</div><br><div>Dr. Amro Najjar, University of Luxembourg, Luxembourg</div><div>research areas: Multi-Agent Systems, Explainable AI, Artificial Intelligence</div><div>mail: amro.najjar@uni.lu, Google Scholar</div><br><div>Prof. Kary Främling, Umeå University Sweden and Aalto University, Finland,</div><div>research areas: Explainable AI, Artificial Intelligence, Machine Learning, Internet of Things, Systems of Systems</div><div>mail: Kary.Framling@cs.umu.se, web page, Google Scholar</div><br><div>Prof. Andrea Omicini</div><div>research areas: Artificial Intelligence, Multi-agent Systems, Software Engineering</div><div>mail: andrea.omicini@unibo.it, web page, Google Scholar</div><br><br><div>Track Chairs</div><div>============</div><br><div>Dr. Giovanni Ciatto, University of Bologna, Italy</div><div>mail: giovanni.ciatto@unibo.it</div><br><div>Dr. Rehyan Aydogan, Ozyegin University, Turkey</div><div>mail: reyhan.aydogan@ozyegin.edu.tr</div><br><div>Dr. Yazan Mualla, University of Technology of Belfort-Montbéliard</div><div>mail: yazan.mualla@utbm.fr</div><br><div>Rachele Carli, University of Bologna</div><div>mail: rachele.carli2@unibo.it</div><br><br><div>Advisory Board</div><div>==============</div><br><div>Prof. Tim Miller, University of Melbourne.</div><div>Prof. Leon van der Torre, University of Luxembourg</div><div>Prof. Virginia Dignum, Umea University</div><div>Prof. Michael Ignaz Schumacher</div><br><br><div>Primary Contacts</div><div>================</div><br><div>Davide Calvaresi - davide.calvaresi@hevs.ch and Amro Najjar - amro.najjar@list.lu</div></div><br></div></div></body></html>