<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
## Opening Position for Ph.D. Student in explainable multi-agent systems ##
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><b class="">Topic:</b> Personalized Explainable Artificial Intelligence for decentralized agents with heterogeneous knowledge </div>
<div class=""><b class="">Context:</b> European project (CHIST-ERA)</div>
<div class=""><b class="">Institute:</b> University of Applied Sciences and Arts Western Switzerland </div>
<div class=""><b class="">City:</b> Sierre</div>
<div class=""><b class="">Country:</b> Switzerland</div>
<div class=""><b class="">Project link: <a href="https://expectation.ehealth.hevs.ch" class="">https://expectation.ehealth.hevs.ch</a></b></div>
<div class=""><b class="">Project short summary:</b></div>
<div class="">
<div class="">Explainable AI (XAI) has emerged in recent years as a set of techniques and methodologies aiming at explaining machine learning (ML) models, and enabling humans to understand, trust, and manipulate the outcomes produced by artificial intelligent
 entities effectively. Although these initiatives have advanced over the state of the art, several challenges still need to be addressed to apply XAI in reallife scenarios adequately. In particular, two key aspects that need to be addressed are the personalization
 of XAI and the ability to provide explanations in decentralized environments where heterogeneous knowledge is prevalent. Firstly, personalization of XAI is particularly relevant, due to the diversity of backgrounds, contexts, and abilities of the subjects
 receiving the explanations generated by AI-systems (e.g., patients and healthcare professionals). Henceforth, the need for personalization must be coped with the imperative need for providing trusted, transparent, interpretable, and understandable outcomes
 from ML processing. Secondly, the emergence of diverse AI systems collaborating on a given set of tasks relying on heterogeneous datasets opens to questioning how explanations can be combined or integrated, considering that they emerge from different knowledge assumptions
 and processing pipelines.<br class="">
In this project, we want to address those two challenges, leveraging on the multi-agent systems (MAS) paradigm, in which decentralized AI agents will extract and inject symbolic knowledge from/in MLpredictors, which, in turn, will be dynamically shared composing
 custom explanations. The proposed approach combines inter-agent, intra-agent, and human-agent interactions to benefit from both the specialization of ML agents and the establishment of agent collaboration mechanisms, which will integrate heterogeneous knowledge/explanations
 extracted from efficient black-box AI agents.<br class="">
The project includes the validation of the personalization and heterogeneous knowledge integration approach through a prototype application in the domain of food and nutrition monitoring and recommendation, including the evaluation of agent-human explainability,
 and the performance of the employed techniques in a collaborative AI environment.</div>
</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
Kind regards,
<div class="">Davide.</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
<br class="">
<div class="">
<div>--- Davide Calvaresi, Ph.D.<br class="">
Senior Researcher @ AISLAB - University of Applied Science Western Switzerland (HES-SO)​<br class="">
——<br class="">
Co-founder Wriggle Solutions S.R.L.S <a href="http://www.wrigglesolutions.com" class="">www.wrigglesolutions.com</a><br class="">
——<br class="">
Web: <a href="http://www.davidecalvaresi.it" class="">www.davidecalvaresi.it</a><br class="">
Phone: +41586068933</div>
</div>
<br class="">
</div>
<br>
<font color="#009900" face="verdana,arial,helvetica" size="2">Be green, keep it on the screen</font>
</body>
</html>