<div dir="ltr"><p class="MsoNormal" align="center" style="margin:0in 0in 8pt;text-align:center;line-height:normal"><font face="times new roman, serif" size="4"><b><span style="color:rgb(0,0,64)">The Second International Workshop on Deep and Transfer Learning <br>(<span class="gmail-m_-7971048779185938340gmail-m_2602338321146163892gmail-m_162097746670866075m_5036246070119929880gmail-il"><span class="gmail-m_-7971048779185938340gmail-il"><span class="gmail-il">DTL</span></span></span> 2019) </span></b><span style="color:black"></span></font></p><p class="MsoNormal" align="center" style="margin:0in 0in 8pt;text-align:center;line-height:normal"><font face="times new roman, serif"><b><span style="color:rgb(0,0,64)"><font size="4">in conjunction with</font></span></b><span style="color:black"></span></font></p><p class="MsoNormal" align="center" style="margin:0in 0in 8pt;text-align:center;line-height:normal"><font face="times new roman, serif"><b><span style="color:rgb(0,0,64)"><a href="http://emergingtechnet.org/SNAMS2019/" target="_blank"><span style="color:rgb(41,145,214)">The 6th International Conference on Social Networks Analysis, Management and Security (SNAMS-2019)</span></a> <br><a href="http://emergingtechnet.org/IOTSMS2019/index.php" target="_blank"><span style="color:rgb(41,145,214)">The 6th International Conference on Internet of Things: Systems, Management and Security (IoTSMS 2019)</span></a> <br><br>Granada, Spain. October 22-25, 2019</span></b></font></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><span style="color:black"><font face="times new roman, serif">Deep learning approaches have caused tremendous advances in many areas of computer science. Deep learning is a branch of machine learning where the learning process is done using deep and complex architectures such as recurrent convolutional artificial neural networks. Many computer science applications have utilized deep learning such as computer vision, speech recognition, natural language processing, sentiment analysis, social network analysis, and robotics. The success of deep learning enabled the application of learning models such as reinforcement learning in which the learning process is only done by trial-and-error, solely from actions rewards or punishments. Deep reinforcement learning come to create systems that can learn how to adapt in the real world. As deep learning utilizes deep and complex architectures, the learning process usually is time and effort consuming and need huge labeled data sets. This inspired the introduction of transfer and multi-task learning approaches to better exploit the available data during training and adapt previously learned knowledge to emerging domains, tasks, or applications.<br>Despite the fact that many research activities is ongoing in these areas, many challenging are still unsolved. This workshop will bring together researchers working on deep learning, working on the intersection of deep learning and reinforcement learning, and/or using transfer learning to simplify deep leaning, and it will help researchers with expertise in one of these fields to learn about the others. The workshop also aims to bridge the gap between theories and practices by providing the researchers and practitioners the opportunity to share ideas and discuss and criticize current theories and results.</font></span></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><span style="color:black"><font face="times new roman, serif">Proceedings of the workshops will be published will be submitted for inclusion in the IEEE-Xplore.</font></span></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><font face="times new roman, serif"><b><span style="color:rgb(0,0,64)">Topics of interest </span></b><b><span style="color:black"><br></span></b><span style="color:black">============== <br></span></font></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><span style="color:black"><font face="times new roman, serif">We invite submission of original papers on all topics related to deep learning, deep reinforcement learning, and transfer and multi-task learning, with special interest in but not limited to:</font></span></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"></p><ul type="disc" style="margin-bottom:0in"><li class="MsoNormal" style="margin:0in 0in 8pt;color:black;line-height:normal"><font face="times new roman, serif">Deep learning for innovative applications such machine translation, computational biology</font></li><li class="MsoNormal" style="margin:0in 0in 8pt;color:black;line-height:normal"><font face="times new roman, serif">Deep Learning for Natural Language Processing</font></li><li class="MsoNormal" style="margin:0in 0in 8pt;color:black;line-height:normal"><font face="times new roman, serif">Deep Learning for Recommender Systems</font></li><li class="MsoNormal" style="margin:0in 0in 8pt;color:black;line-height:normal"><font face="times new roman, serif">Deep learning for computer vision</font></li><li class="MsoNormal" style="margin:0in 0in 8pt;color:black;line-height:normal"><font face="times new roman, serif">Deep learning for systems and networks resource management</font></li><li class="MsoNormal" style="margin:0in 0in 8pt;color:black;line-height:normal"><font face="times new roman, serif">Optimization for Deep Learning</font></li><li class="MsoNormal" style="margin:0in 0in 8pt;color:black;line-height:normal"><font face="times new roman, serif">Deep Reinforcement Learning <br>o Deep transfer learning for robots <br>o Determining rewards for machines <br>o Machine translation <br>o Energy consumption issues in deep reinforcement learning <br>o Deep reinforcement learning for game playing <br>o Stabilize learning dynamics in deep reinforcement learning <br>o Scaling up prior reinforcement learning solutions</font></li><li class="MsoNormal" style="margin:0in 0in 8pt;color:black;line-height:normal"><font face="times new roman, serif">Deep Transfer and multi-task learning: <br>o New perspectives or theories on transfer and multi-task learning <br>o Dataset bias and concept drift <br>o Transfer learning and domain adaptation <br>o Multi-task learning <br>o Feature based approaches <br>o Instance based approaches <br>o Deep architectures for transfer and multi-task learning <br>o Transfer across different architectures, e.g. CNN to RNN <br>o Transfer across different modalities, e.g. image to text <br>o Transfer across different tasks, e.g. object recognition and detection <br>o Transfer from weakly labeled or noisy data, e.g. Web data</font></li><li class="MsoNormal" style="margin:0in 0in 8pt;color:black;line-height:normal"><font face="times new roman, serif">GANs</font></li><li class="MsoNormal" style="margin:0in 0in 8pt;color:black;line-height:normal"><font face="times new roman, serif">Datasets, benchmarks, and open-source packages</font></li></ul><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><font face="times new roman, serif"><b><span style="color:rgb(0,0,64)">Paper Submission : </span></b><a name="m_-7971048779185938340_m_2602338321146163892_m_162097746670866075_m_5036246070119929880_m_8484155268376481453__submission"><span style="color:black"><br>===============</span></a></font></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><span style="color:black"><font face="times new roman, serif">Authors are requested to submit papers reporting original research results and experience. The page limit for full papers is 6 pages. Papers should be prepared using IEEE two-column template.</font></span></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><font face="times new roman, serif"><span style="color:black">IEEE Computer Society Proceedings Author Guidelines are available at: </span><a href="https://www.ieee.org/conferences/publishing/templates.html" target="_blank"><span style="color:blue">IEEE Guidelines Link</span></a><span style="color:black"></span></font></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><font face="times new roman, serif"><span style="color:black">Papers should be submitted as PDF files via the EasyChair: </span><a href="https://easychair.org/conferences/?conf=dtl2019" target="_blank"><span style="color:blue">EasyChair Link</span></a><span style="color:black"></span></font></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><span style="color:black"><font face="times new roman, serif">Submitted research papers may not overlap with papers that have already been published or that are simultaneously submitted to a journal or a conference. All papers accepted for this conference are peer-reviewed and are to be published in the conference proceedings by the indexed by IEEE Xplore Digital Library.</font></span></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><font face="times new roman, serif"><b><span style="color:rgb(0,0,64)">Important Dates : </span></b><a name="m_-7971048779185938340_m_2602338321146163892_m_162097746670866075_m_5036246070119929880_m_8484155268376481453__dates"></a><span style="color:black"><br>==============</span></font></p><p class="MsoNormal" style="margin:0in 0in 8pt;line-height:normal"><font face="times new roman, serif"><b><span style="color:black">Full Paper Submission:</span></b><span style="color:black">  July 22, 2019 <br><b>Notification of Decision:</b>  August 20, 2019<br><b>Camera-Ready and Registration :</b> September 5, 2019</span></font></p></div>