<html><head><meta http-equiv="Content-Type" content="text/html charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">———————————————————————————————————————<br class="">The Last Call for Papers -- TRUST: Workshop at AAMAS/IJCAI/ECAI/ICML 2018<br class="">              Stockholm, Sweden -- July 14, 2018 or July 15, 2018<br class="">               <a href="https://sites.google.com/site/trustworkshop2018" class="">https://sites.google.com/site/trustworkshop2018</a><br class="">------------------------------------------------------------------------------<br class=""><br class="">Trust is important in many kinds of interactions, including computer-mediated<br class="">human interaction, human-computer interaction and among social agents;<br class="">it characterizes those elements that are essential in social reliability.<br class="">It also informs the selection of partners for successful multiagent<br class="">coordination. Trust is more than communication that is robust against<br class="">repudiation or interference. Increasingly, there is concern for human<br class="">users to trust the AI systems which have been designed to act on their behalf.<br class="">This trust can be engendered through effective transparency and lack of <br class="">bias, as well as through successful attention to user needs. Mistrust has also<br class="">emerged as a current theme, especially within online settings where<br class="">misinformation may abound. AI approaches to addressing this concern have<br class="">thus come into focus.<br class=""><br class="">This workshop aims to bring together researchers working on related <br class="">issues regarding trust and artificial intelligence, expanding the discussion<br class="">beyond the borders of multiagent trust modeling, where research and dialogue<br class="">has been very active over the past twenty years.<br class=""><br class="">Many computational and theoretical models and approaches to reputation<br class="">have been developed recently. Further, identity and associated<br class="">trustworthiness must be ascertained for reliable interactions or transactions.<br class="">Trust is foundational for the notion of agency and for its defining<br class="">relation of acting "on behalf of". It is also critical for modeling<br class="">and supporting groups and teams, for both organization and coordination,<br class="">with the related trade-off between individual utility and collective interest.<br class="">The electronic medium seems to weaken the usual bonds of social control<br class="">and the disposition to mislead grows stronger; this is yet another context<br class="">where trust modeling is critical.<br class=""><br class="">The aim of the workshop is to bring together computer science <br class="">researchers with a vested interested in exploring artificial intelligence<br class="">modeling of trust (ideally from different subdisciplines). We welcome<br class="">submissions of high-quality research addressing issues that are clearly<br class="">relevant to trust, deception, reputation, security and control,<br class="">from theoretical, applied and interdisciplinary perspectives. Submitted<br class="">contributions should be original and not submitted elsewhere. Papers<br class="">accepted for presentation must be relevant to the workshop and to demonstrate<br class="">clear exposition, offering new ideas is suitable depth and detail.<br class="">Papers are to be formatted in Springer format and be no more than 12 pages.<br class=""><br class="">The scope of the workshop includes (but is not limited to):<br class=""><br class="">Trust modeling in multiagent systems<br class="">Addressing misinformation in online systems<br class="">Engendering trust in AI systems from human users<br class=""><br class="">with more specific subtopics including (but not limited to):<br class="">Trust and risk-aware decision making<br class="">Game-theoretic models of trust<br class="">Trust in the context of adversarial environments<br class="">Deception and fraud, and its detection and prevention<br class="">Intrusion resilience in trusted computing<br class="">Reputation mechanisms<br class="">Trust within socio-technical systems and organizations<br class="">Socio-cognitive models of trust<br class="">Trust within service-oriented architectures<br class="">Human or agent trust in agent partners<br class="">Trust within social networks<br class="">AI solutions to improve online fact checking and critical thinking<br class="">Detecting and preventing collusion<br class="">Improving transparency in AI systems<br class="">Addressing bias in AI systems<br class="">Detecting and addressing mistrust of AI systems from human users<br class="">Realworld applications of multiagent trust modeling<br class=""><br class="">We are currently in discussion with the Editor in Chief of<br class="">ACM TOIT (Transactions on Internet Technology) for<br class="">a special issue of this journal (with a 2018 call for papers) to <br class="">which authors of outstanding papers at the workshop will be invited to submit<br class="">an expanded version of their work.<br class=""><br class="">Motivation<br class=""><br class="">This workshop will continue the tradition of bringing together at AAMAS<br class="">each year researchers working on modeling trust in multiagent systems<br class="">but with an expanded vision for the gathering, to encourage participation<br class="">from researchers working on related issues: regarding trust of<br class="">AI systems (and the need to address possible mistrust of these systems) and<br class="">regarding concern about mistrust for applications where AI solutions may be<br class="">of use (such as the web and online social networks).<br class=""><br class="">The workshop will consist of paper presentations, invited talks<br class="">and panel discussions, with the latter aimed at fostering discussion<br class="">of how the theme of trust is pervading not only the multiagent systems<br class="">community but also the more general AI community, with respect to<br class="">the additional topic areas outlined above.<br class=""><br class="">This will be a one-day workshop.<br class=""><br class=""><br class="">Submission<br class=""><br class="">Papers can be up to 12 pages single-sided (Springer format) and will be<br class="">submitted through the Easychair system.<br class=""><br class="">Papers must be original: not previously published and not in submission.<br class="">Reviewing will be single blind (i.e. author names included on first page).<br class=""><br class=""><br class="">Expected Dates (to be finalized once we hear back from conference organizers):<br class=""><br class="">Papers due Apr 17<br class="">Papers to PC by Apr 20<br class="">PC Reviews due May 13<br class="">Notification of Acceptances May 16<br class="">Camera-Ready due May 31<br class=""><br class="">Submissions should be made through easychair:  <a href="https://easychair.org/conferences/?conf=trust2018" class="">https://easychair.org/conferences/?conf=trust2018</a></body></html>