<html xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=Windows-1252">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#0563C1;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:#954F72;
        text-decoration:underline;}
.MsoChpDefault
        {mso-style-type:export-only;}
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:72.0pt 72.0pt 72.0pt 72.0pt;}
div.WordSection1
        {page:WordSection1;}
--></style>
</head>
<body lang="EN-AU" link="#0563C1" vlink="#954F72">
<div class="WordSection1">
<p class="MsoNormal">*Call for papers*</p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">Explainable AI (XAI) Workshop @ IJCAI 19</p>
<p class="MsoNormal">Macau, China</p>
<p class="MsoNormal">Aug 10/11/12, 2019</p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal"><a href="https://sites.google.com/view/xai2019/home">https://sites.google.com/view/xai2019/home</a>
</p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">Topics and Objectives</p>
<p class="MsoNormal">******************* </p>
<p class="MsoNormal">As AI becomes more ubiquitous, complex and consequential, the need for people to understand how decisions are made and to judge their correctness becomes increasingly crucial due to concerns of ethics and trust. The field of Explainable
 AI (XAI) aims to address this problem by designing methods and tools that enable people to understand decisions made by AI, such as methods for generating explanations or making decisions that are more intuitive to people. This workshop brings together researchers
 working in explainable AI to share and learn about recent research, with the hope of fostering meaningful connections between researchers from diverse backgrounds, including but not limited to artificial intelligence, human-computer interaction, human factors,
 philosophy, cognitive & social psychology.</p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">While AI researchers have experienced many recent successes, those successes have been demonstrated based on measures of accuracy and correctness (e.g., using AUC, F-scores, mAP, or accuracy measures) of the decisions, rather than on measures
 associated to the understanding of the users who are the receipients of those decisions. Some ways to demonstrate success of AI decisions with this respect would be through their explainability (and justification) (e.g., involving user satisfaction, mental
 model alignment, or human-system task performance). This is problematic for applications in which users seek to understand before committing to decisions with inherent risk. For example, a delivery drone should explain (to its remote operator) why it is operating
 normally or why it suspends its behavior (e.g., to avoid placing its fragile package on an unsafe location), and an intelligent decision aid should explain its recommendation of an aggressive medical intervention (e.g., in reaction to a patient’s recent health
 patterns). The need for explainable models increases as AI systems are deployed in critical applications.
</p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">The need for explainability exists independently of how models are acquired (i.e., perhaps they were hand-crafted, or interactively elicited without using machine learning techniques). This raises several questions, such as: how should
 explainable models be designed? What queries should AI systems be able to answer about their models and decisions? How should user interfaces communicate decision making? What types of user interactions should be supported? And how should explanation quality
 be assessed? </p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">This workshop will provide a forum for discussing recent research on interactive XAI methods, highlighting and documenting promising approaches, and encouraging further work, thereby fostering connections among researchers interested in
 AI, human-computer interaction, and cognitive theories of explanation and transparency.
</p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">In addition to encouraging descriptions of original or recent contributions to XAI (i.e., theory, simulation studies, subject studies, demonstrations, applications), we will welcome contributions that: survey related work; describe key
 issues that require further research; or highlight relevant challenges of interest to the AI community and plans for addressing them.</p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">Topics of interest include but are not limited to:  </p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">Technologies and Theories</p>
<p class="MsoNormal">* Machine learning (e.g., deep, reinforcement, statistical, relational, transfer, case-based)</p>
<p class="MsoNormal">* Planning</p>
<p class="MsoNormal">* Cognitive architectures</p>
<p class="MsoNormal">* Commonsense reasoning</p>
<p class="MsoNormal">* Decision making</p>
<p class="MsoNormal">* Episodic reasoning</p>
<p class="MsoNormal">* Intelligent agents (e.g., planning and acting, goal reasoning, multiagent architectures)</p>
<p class="MsoNormal">* Knowledge acquisition</p>
<p class="MsoNormal">* Narrative intelligence</p>
<p class="MsoNormal">* Temporal reasoning</p>
<p class="MsoNormal">* Human-agent explanation</p>
<p class="MsoNormal">* Psychological and philosophical foundations</p>
<p class="MsoNormal">* Interaction design</p>
<p class="MsoNormal">* Evaluation for XAI</p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">Applications/Tasks</p>
<p class="MsoNormal">* After action reporting</p>
<p class="MsoNormal">* Ambient intelligence</p>
<p class="MsoNormal">* Autonomous control </p>
<p class="MsoNormal">* Caption generation</p>
<p class="MsoNormal">* Computer games</p>
<p class="MsoNormal">* Explanatory dialog design and management</p>
<p class="MsoNormal">* Image processing (e.g., security/surveillance tasks)</p>
<p class="MsoNormal">* Information retrieval and reuse</p>
<p class="MsoNormal">* Intelligent decision aids</p>
<p class="MsoNormal">* Intelligent tutoring </p>
<p class="MsoNormal">* Legal reasoning</p>
<p class="MsoNormal">* Recommender systems</p>
<p class="MsoNormal">* Robotics</p>
<p class="MsoNormal">* User modeling</p>
<p class="MsoNormal">* Visual question-answering (VQA)</p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">This meeting will provide attendees with an opportunity to learn about progress on XAI, to share their own perspectives, and to learn about potential approaches for solving key XAI research challenges. This should result in effective cross-fertilization
 among research on ML, AI more generally, intelligent user interaction (interfaces, dialogue), and cognitive modeling.</p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">Important Dates </p>
<p class="MsoNormal">****************** </p>
<p class="MsoNormal">Paper submission: 19 May, 2019 </p>
<p class="MsoNormal">Notification: 15 June, 2019</p>
<p class="MsoNormal">Camera-ready submission: 10 July, 2019</p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">Submission Details </p>
<p class="MsoNormal">********************** </p>
<p class="MsoNormal">Authors may submit *long papers* (6 pages plus up to one page of references) or *short papers* (4 pages plus up to one page of references). </p>
<p class="MsoNormal">All papers should be typeset in the IJCAI style (<a href="https://www.ijcai.org/authors_kit">https://www.ijcai.org/authors_kit</a>). Accepted papers will be published on the workshop website. </p>
<p class="MsoNormal">Papers must be submitted in PDF format via the EasyChair system:
<a href="https://easychair.org/conferences/?conf=xai19">https://easychair.org/conferences/?conf=xai19</a>  </p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">Organizing Chairs </p>
<p class="MsoNormal">********************* </p>
<p class="MsoNormal">Tim Miller (University of Melbourne, Australia): Primary contact:
<a href="mailto:tmiller@unimelb.edu.au">tmiller@unimelb.edu.au</a> </p>
<p class="MsoNormal">Rosina Weber (Drexel University)</p>
<p class="MsoNormal">David Aha (NRL, USA) </p>
<p class="MsoNormal">Daniele Magazzeni (King’s College London) </p>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
</body>
</html>