Publications

Journal papers / Conference papers (International) / Conference papers (Japanese) / Others

Google Scholar / Research map


Journal papers

  • Yuanchao Li, Carlos T. Ishi, Koji Inoue, Shizuka Nakamura, Tatsuya Kawahara.
    Expressing reactive emotion based on multimodal emotion recognition for natural conversation in human-robot interaction.
    Advanced Robotics, Vol. 33, No 20, pp. 1030-1041, 2019.
    [Link]
  • Koji Inoue, Divesh Lala, Katsuya Takanashi, Tatsuya Kawahara.
    Engagement recognition by a latent character model based on multimodal listener behaviors in spoken dialogue.
    APSIPA Trans. Signal & Information Processing, Vol. 7, No. e9, pp. 1-16, 2018.
    [Link]
  • 山本賢太, 井上昂治, 中村静, 高梨克也, 河原達也.
    人間型ロボットのキャラクタ表現のための対話の振る舞い制御モデル.
    人工知能学会論文誌, Vol. 33, No. 5, pp. C-l37_1-9, 2018.
    [Link]
  • 井上昂治, Divesh Lala, 吉井和佳, 高梨克也, 河原達也.
    潜在キャラクタモデルによる聞き手のふるまいに基づく対話エンゲージメントの推定.
    人工知能学会論文誌, Vol. 33, No. 1, pp. DSH-F_1-12, 2018.
    [Link]
  • 山口貴史, 井上昂治, 吉野幸一郎, 高梨克也, Nigel G. Ward, 河原達也, “傾聴対話システムのための言語情報と韻律情報に基づく多様な形態の相槌の生成,” 人工知能学会論文誌, Vol. 31, No. 4, pp. C-G31_1-10, 2016. [Link]
  • Tatsuya Kawahara, Takuma Iwatate, Koji Inoue, Soichiro Hayashi, Hiromasa Yoshimoto, Katsuya Takanashi, “Multi-modal sensing and analysis of poster conversations with smart posterboard,” APSIPA Trans. Signal & Information Processing, Vol. 5, No. e2, pp. 1-12, 2016. [Link]
  • 井上昂治, 若林佑幸, 吉本廣雅, 河原達也, “多人数会話における音響・視線情報を統合した話者区間検出,” 電子情報通信学会論文誌, Vol. J99-D, No. 3, pp. 348-357, March 2016. [Link]
  • 若林佑幸, 井上昂治, 中山雅人, 西浦敬信, 山下洋一, 吉本廣雅, 河原達也, “視聴覚情報の統合に基づく音源数推定と話者ダイアライゼーション,” 電子情報通信学会論文誌, Vol. J99-D, No. 3, pp. 326-336, 2016. [Link]
  • Koji Inoue, Kohei Isechi, Hironobu Saito, and Yoshimitsu Kuroki, “An Inter-Prediction Method using Sparse Representation for High Efficiency Video Coding,” IEICE Trans. on Fundamentals of Electronics, Communications and Computer Sciences, Vol. E96-A, No. 11, pp. 2191-2193, Nov. 2013. [Link]
  • Kenjiro Sugimoto, Koji Inoue, Yoshimitsu Kuroki, and Sei-ichiro Kamata, “A linear manifold color descriptor for medicine package recognition,” IEICE Trans. on Information and Systems, Vol. E95-D, No. 5, pp. 1264-1271, May 2012. [Link]

Conference papers (International)

  • Divesh Lala, Koji Inoue, Tatsuya Kawahara.
    Smooth turn-taking by a robot using an online continuous model to generate turn-taking cues.
    International Conference on Multimodal Interaction (ICMI), 2019.
    Accepted
  • Kohei Hara, Koji Inoue, Katsuya Takanashi, Tatsuya Kawahara.
    Turn-taking Prediction Based on Detection of Transition Relevance Place.
    INTERSPEECH, pp. 4170-4179, 2019.
    [PDF]
  • Koji Inoue, Divesh Lala, Kenta Yamamoto, Katsuya Takanashi, Tatsuya Kawahara.
    Engagement-based adaptive behaviors for laboratory guide in human-robot dialogue.
    International Workshop on Spoken Dialogue Systems Technology (IWSDS), 2019.
    [PDF]
  • Koji Inoue, Kohei Hara, Divesh Lala, Shizuka Nakamura, Katsuya Takanashi, Tatsuya Kawahara.
    A job interview dialogue system with autonomous android ERICA.
    International Workshop on Spoken Dialogue Systems Technology (IWSDS), 2019.
    [PDF]
  • Koki Tanaka, Koji Inoue, Shizuka Nakamura, Katsuya Takanashi, Tatsuya Kawahara.
    End-to-end modeling for selection of utterance constructional units via system internal states.
    International Workshop on Spoken Dialogue Systems Technology (IWSDS), 2019.
    [PDF]
  • Kenta Yamamoto, Koji Inoue, Shizuka Nakamura, Katsuya Takanashi, Tatsuya Kawahara.
    Dialogue Behavior Control Model for Expressing a Character of Humanoid Robots.
    APSIPA ASC, pp. 1732-1737, 2018.
    [PDF]
  • Divesh Lala, Koji Inoue, Tatsuya Kawahara.
    Evaluation of Real-time Deep Learning Turn-taking Models for Multiple Dialogue Scenarios.
    International Conference on Multimodal Interaction (ICMI), pp. 78-86, 2018.
    [PDF][Link]
  • Koji Inoue, Divesh Lala, Katsuya Takanashi, Tatsuya Kawahara.
    Engagement recognition in spoken dialogue via neural network by aggregating different annotators' models.
    INTERSPEECH, pp. 616-620, 2018.
    [PDF]
  • Kohei Hara, Koji Inoue, Katsuya Takanashi, Tatsuya Kawahara.
    Prediction of turn-taking using multitask learning with prediction of backchannels and fillers.
    INTERSPEECH, pp. 991-995, 2018.
    [PDF]
  • Koji Inoue, Divesh Lala, Katsuya Takanashi, Tatsuya Kawahara.
    Latent Character Model for Engagement Recognition Based on Multimodal Behaviors.
    International Workshop on Spoken Dialogue Systems (IWSDS), 2018.
    [PDF]
  • Ryosuke Nakanishi, Koji Inoue, Shizuka Nakamura, Katsuya Takanashi, Tatsuya Kawahara.
    Generating Fillers based on Dialog Act Pairs for Smooth Turn-Taking by Humanoid Robot.
    International Workshop on Spoken Dialogue Systems (IWSDS), May 2018.
    [PDF]
  • Tatsuya Kawahara, Koji Inoue, Divesh Lala, Katsuya Takanashi.
    Audio-visual conversation analysis by smart posterboard and humanoid robot.
    IEEE-ICASSP, pp. 6573-6577, April 2018.
    [PDF]
  • Hirofumi Inaguma, Masato Mimura, Koji Inoue, Kazuyoshi Yoshii, Tatsuya Kawahara.
    An end-to-end approach to joint social signal detection and automatic speech recognition.
    IEEE-ICASSP, pp. 6214-6218, April 2018.
    [PDF]
  • Yuanchao Li, Carlos Toshinori Ishi, Nigel Ward, Koji Inoue, Shizuka Nakamura, Katsuya Takanashi, Tatsuya Kawahara, “Emotion recognition by combining prosody and sentiment analysis for expressing reactive emotion by humanoid robot,” APSIPA ASC, Dec. 2017. [PDF]
  • Divesh Lala, Koji Inoue, Pierrick Milhorat, Tatsuya Kawahara, “Detection of social signals for recognizing engagement in human-robot interaction,” AAAI Fall Symposium Natural Communication for Human-Robot Collaboration (NCHRC), Nov. 2017. [PDF]
  • Hirofumi Inaguma, Koji Inoue, Masato Mimura, Tatsuya Kawahara, “Social Signal Detection in Spontaneous Dialogue Using Bidirectional LSTM-CTC,” INTERSPEECH, pp. 1691-1695, Aug. 2017. [PDF]
  • Divesh Lala, Milhorat Pierrick, Koji Inoue, Masanari Ishida, Tianyu Zhao, Tatsuya Kawahara, “Attentive listening system with backchanneling, response generation and flexible turn-taking,” SIGdial Meeting on Discourse and Dialogue (SIGDIAL), pp. 127-136, Aug. 2017. [PDF]
  • Pierrick Milhorat, Divesh Lala, Koji Inoue, Tianyu Zhao, Masanari Ishida, Katsuya Takanashi, Shizuka Nakamura, Tatsuya Kawahara, “A conversational dialogue manager for the humanoid robot ERICA,” International Workshop on Spoken Dialogue Systems (IWSDS), June 2017. [PDF]
  • Koji Inoue, Divesh Lala, Katsuya Takanashi, Tatsuya Kawahara, “Annotation and analysis of listener's engagement based on multi-modal behaviors,” ICMI workshop on Multimodal Analyses enabling Artificial Agents in Human-Machine Interaction (MA3HMI), Nov. 2016. [PDF][Link]
  • Hirofumi Inaguma, Koji Inoue, Shizuka Nakamura, Katsuya Takanashi, Tatsuya Kawahara, “Prediction of ice-breaking between participants using prosodic features in the first meeting dialogue,” ICMI workshop on Advancements in Social Signal Processing for Multimodal Interaction (ASSP4MI), Nov. 2016. [PDF][Link]
  • Divesh Lala, Pierrick Milhorat, Koji Inoue, Tianyu Zhao, Tatsuya Kawahara, “Multimodal interaction with the autonomous android ERICA,” ICMI, pp.417-418, Nov. 2016. (Demo) [PDF][Link]
  • Koji Inoue, Pierrick Milhorat, Divesh Lala, Tianyu Zhao, Tatsuya Kawahara, “Talking with ERICA, an autonomous android,” SIGdial Meeting on Discourse and Dialogue (SIGDIAL), pp.212-215, Sep. 2016. (Demo) [PDF]
  • Tatsuya Kawahara, Takashi Yamaguchi, Koji Inoue, Katsuya Takanashi, Nigel G. Ward, “Prediction and generation of backchannel form for attentive listening systems,” INTERSPEECH, pp.2980-2894, Sep. 2016. [PDF]
  • Takashi Yamaguchi, Koji Inoue, Koichiro YoshiNo. Katsuya Takanashi, Nigel G. Ward, Tatsuya Kawahara, “Analysis and prediction of morphological patterns of backchannels for attentive listening agents,” International Workshop on Spoken Dialog Systems (IWSDS), Jan. 2016. [PDF]
  • Koji Inoue, Yukoh Wakabayashi, Hiromasa Yoshimoto, Katsuya Takanashi, and Tatsuya Kawahara, “Enhanced speaker diarization with detection of backchannels using eye-gaze information in poster conversations,” INTERSPEECH, pp.3086-3090, Sep. 2015. (Oral) [PDF]
  • Yukoh Wakabayashi, Koji Inoue, Hiromasa Yoshimoto, and Tatsuya Kawahara, “Speaker Diarization based on Audio-Visual Integration for Smart Posterboard,” APSIPA ASC, FP2-1-1116, Dec. 2014. (Oral)
  • Koji Inoue, Yukoh Wakabayashi, Hiromasa Yoshimoto, and Tatsuya Kawahara, “Speaker Diarization using Eye-gaze Information in Multi-party Conversations,” INTERSPEECH, pp.562-566, Sep. 2014. (Poster) [PDF]
  • Randy Gomez, Koji Inoue, Keisuke Nakamura, Takeshi Mizumoto, and Kazuhiro Nakadai, “Speech-based Human-Robot Interaction Robust to Acoustic Reflections in Real Environment,” International Conference on Intelligent Robots and Systems (IROS), pp. 1367-1373, 2014 .
  • Koji Inoue, Hironobu Saito, and Yoshimitsu Kuroki, “Local intensity compensation using sparse representation,” International Conference on Pattern Recognition (ICPR), No. TuAT2.4, pp. 951-954, Tsukuba, Japan, Nov. 2012. (Oral, Oral acceptance rate = 16.1%, 313/1941) [Link]
  • Koji Inoue and Yoshimitsu Kuroki, “On a constraint condition of sparse representation for illumination-robust face recognition,” International Workshop on Image & Signal Processing and Retrieval (IWISPR 2012), Oct. 2012. (Poster)
  • Kohei Isechi, Koji Inoue, and Yoshimitsu Kuroki, “Video compression using sparse representation,” International Workshop on Image & Signal Processing and Retrieval (IWISPR), Oct. 2012. (Poster)
  • Koji Inoue, Hironobu Saito, and Yoshimitsu Kuroki, “ Motion compensation using sparse representation,” 2012 International Workshop on Smart Info-Media Systems in Asia (SISA 2012), RS3-10, Sep. 2012. (Poster)
  • Koji Inoue and Yoshimitsu Kuroki, “On sparse representation for face recognition under illumination change,” International Workshop on Advanced Image Technology (IWAIT), pp. 662-667, Jan. 2012. (Poster)
  • Shoma Eguchi, Koji Inoue, Yoshimitsu Kuroki, Masayuki Kurosaki, Yuhei Nagao, and Hiroshi Ochi, “On Parallel 2D-DWT of JPEG 2000 conformed to Digital Cinema Initiatives using GPGPU,” International Workshop on Advanced Image Technology (IWAIT), pp. 668-671, Jan. 2012. (Poster)
  • Koji Inoue and Yoshimitsu Kuroki, “Illumination-Robust Face Recognition via Sparse Representation,” Visual Communication and Image Processing (VCIP), O-10.2, Nov. 2011. (Oral) [Link]
  • Koji Inoue and Yoshimitsu Kuroki, “Face Recognition under Illumination Change using Sparse Representation,” International Workshop on Target Recognition and Tracking (IWTRT), Oct. 2011. (Poster)
  • Shoma Eguchi, Koji Inoue, and Yoshimitsu Kuroki, “Real Time 2D-DWT of JPEG 2000 for Digital Cinema using Multiple GPUs,” International Workshop on Target Recognition and Tracking (IWTRT), Oct. 2011. (Poster)
  • Koji Inoue, Yoshimitsu Kuroki, Masayuki Kurosaki, Yuhei Nagao, Baiko Sai, and Hiroshi Ochi, “A parallel Computing using CUDA for the 2D-DWT of JPEG 2000,” International Symposium on Multimedia and Communication Technology (ISMAC), TS1-5, Sep. 2011. (Oral)
  • Kenjiro Sugimoto, Koji Inoue, Yoshimitsu Kuroki, and Sei-ichiro Kamata, “A color distribution descriptor for medicine package recognition,” China-Japan-Korea Joint Workshop on Pattern Recognition (CJKPR), pp. 64-69, Nov. 2010. (Poster)

Conference papers (Japanese)

  • 井上昂治, Lala Divesh, 山本賢太, 中村静, 高梨克也, 河原達也.
    自律型アンドロイドERICAによる傾聴対話の評価.
    日本音響学会2019秋季研究発表会, 1-3-2, 2019.
  • 春日悠生, 井上昂治, 山本賢太, 高梨克也, 河原達也.
    ヒューマンロボットインタラクションコーパスへの焦点アノテーションの基準と予備的分析.
    人工知能学会研究会資料, SLUD-B901-03, 2019.
    [Link]
  • 山本賢太, 井上昂治, 中村静, 高梨克也, 河原達也.
    対話のふるまい制御によるキャラクタ表現モデルと対話コーパスによる検証.
    情報処理学会全国大会講演論文集, 2T-07, 2019.
  • 田中滉己, 井上昂治, 中村静, 高梨克也, 河原達也.
    対話相手への好感に基づく発話構成要素の選択とお見合い対話システムへの実装.
    情報処理学会全国大会講演論文集, 2T-06, 2019.
    学生奨励賞
  • 磯西爽太, 田中滉己, 井上昂治, 高梨克也, 河原達也.
    質問タイプの分類に基づく用例なし質問に対する応答生成.
    情報処理学会全国大会講演論文集, 2T-05, 2019.
  • 原康平, 井上昂治, 高梨克也, 河原達也.
    移行適格場の予測に基づくターンテイキング予測.
    情報処理学会全国大会講演論文集, 2T-04, 2019.
  • 原康平, 井上昂治, 高梨克也, 河原達也.
    移行適格場の情報を考慮したターンテイキング予測.
    人工知能学会研究会資料, SLUD-B803-10, 2019.
    [Link]
  • 山本賢太, 井上昂治, 中村静, 高梨克也, 河原達也.
    対話のふるまいに基づくキャラクタ表現の対話コーパスにおける分析.
    人工知能学会研究会資料, SLUD-B803-08, 2019.
    [Link]
  • 井上昂治, Divesh Lala, 原康平, 相原邦光, 中村静, 高梨克也, 河原達也.
    自律型アンドロイドERICAによる就職面接対話.
    人工知能学会研究会資料, SLUD-B802-14, 2018.
    [Link]
  • 山本賢太, 井上昂治, Divesh Lala, 中村静, 高梨克也, 河原達也.
    自律型アンドロイドERICAによる傾聴対話.
    人工知能学会研究会資料, SLUD-B802-13, 2018.
    [Link]
  • 田中滉己, 井上昂治, 中村静, 高梨克也, 河原達也.
    初対面対話における好感のモデリングと発話構成要素の選択.
    人工知能学会研究会資料, SLUD-B802-03, 2018.
    [Link]
  • 原康平, 井上昂治, 高梨克也, 河原達也.
    相槌・フィラー予測とのマルチタスク学習によるターンテイキング予測.
    人工知能学会研究会資料, SLUD-B802-01, 2018.
    [Link]
  • 原康平, 井上昂治, 高梨克也, 河原達也.
    相槌・フィラー予測とのマルチタスク学習による円滑なターンテイキング.
    第80回情報処理学会全国大会, 6Q-07, 2018.
  • 山本賢太, 井上昂治, 中村静, 高梨克也, 河原達也.
    自律型アンドロイドのキャラクタ表現のための対話の振る舞い制御モデルの構築と評価.
    第80回情報処理学会全国大会, 6Q-06, 2018.
    学生奨励賞
  • 田中滉己, 井上昂治, 高梨克也, 河原達也.
    初対面対話における好感の生成と発話構成要素の予測のモデル.
    第80回情報処理学会全国大会, 6Q-05, 2018.
    学生奨励賞
  • 石田真也, 井上昂治, 高梨克也, 河原達也.
    共感・発話促進のための多様な聞き手応答を生成する傾聴対話システム.
    第80回情報処理学会全国大会, 6Q-04, 2018.
  • 井上昂治, Lala Divesh, 高梨克也, 河原達也.
    自律型アンドロイドERICAにおけるエンゲージメント推定に基づく音声対話システム.
    日本音響学会2018春季研究発表会, 2-8-9, 2018.
  • 石田真也, 井上昂治, 中村静, 高梨克也, 河原達也.
    共感表出と発話促進のための聞き手応答を生成する傾聴対話システム.
    人工知能学会研究会資料, SLUD-B509-2, 2018.
    [Link]
  • 井上昂治, Lala Divesh, Milhorat Pierrick, 高梨克也, 河原達也.
    潜在キャラクタモデルによるリアルタイム対話エンゲージメント推定.
    人工知能学会研究会資料, SLUD-B508-18, 2017.
    [Link] 若手奨励賞, 研究会優秀賞
  • 井上昂治, Lala Divesh, Milhorat Pierrick, 石田真也, 趙天雨, 高梨克也, 河原達也, “自律型アンドロイドERICAにおける多様な聞き手応答を用いた傾聴対話,” 人工知能学会研究会資料, SLUD-B508-11, 2017. [Link]
  • 山本賢太, 井上昂治, 中村静, 高梨克也, 河原達也, “自律型アンドロイドの対話の振る舞い制御モデルによる キャラクタ表現法の検討,” 人工知能学会研究会資料, SLUD-B508-05, 2017. [Link]
  • 井上昂治, Lala Divesh, 吉井和佳, 高梨克也, 河原達也, “潜在キャラクタモデルによる聞き手のふるまいに基づく対話エンゲージメントの推定,” 日本音響学会2017秋季研究発表会, 2-Q-12, 2017.
  • 稲熊寛文, 井上昂治, 三村正人, 河原達也, “End-to-endモデルによる音声対話中のsocial signalsの検出,” 日本音響学会2017秋季研究発表会, 1-10-16, 2017. 学生優秀発表賞
  • 稲熊寛文, 井上昂治, 三村正人, 河原達也, “End-to-endモデルによるsocial signals検出および音声認識との統合,” 情報処理学会研究報告, SLP-117-7, 2017.
  • 勝見久央, 井上昂治, 中村静, 高梨克也, 河原達也, “自律型アンドロイドによる対話における同調的笑いの生成,” 情報処理学会研究報告, SLP-116-4, 2017. 学生奨励賞
  • 稲熊寛文, 井上昂治, 河原達也, “ニューラルネットによる音声対話における非言語的振る舞いの検出,” 第79回情報処理学会全国大会, 7M-04, 2017. 学生奨励賞
  • 勝見久央, 井上昂治, 中村静, 高梨克也, 河原達也, “自律型アンドロイドによる対話における「同調的笑い」の生成,” 第79回情報処理学会全国大会, 7M-03, 2017.
  • 石田真也, 井上昂治, 中村静, 高梨克也, 河原達也, “傾聴対話システムにおける自分語りを含む多様な聞き手応答の生成,” 第79回情報処理学会全国大会, 7M-02, 2017.
  • 山本賢太, 井上昂治, 中村静, 高梨克也, 河原達也, “自律型アンドロイドのキャラクタ表現のための対話の振る舞い制御,” 第79回情報処理学会全国大会, 7M-01, 2017.
  • 井上昂治, Lala Divesh, 高梨克也, 河原達也, “聞き手の多様なふるまいに基づく対話エンゲージメントの推定,” 日本音響学会2017春季研究発表会, 3-5-1, 2017.
  • 井上昂治, 三村正人, 石井カルロス寿憲, 坂井信輔, 河原達也, “DAEを用いたリアルタイム遠隔音声認識,” 日本音響学会2017春季研究発表会, 1-Q-6, 2017.
  • 李遠超, 井上昂治, 中村静, 高梨克也, 河原達也, “ヒューマンロボットインタラクションにおける韻律とテキスト情報を組み合わせた感情認識と評価応答選択,” 人工知能学会研究会資料, SLUD-B505-09, 2017. [Link]
  • 中西亮輔, 井上昂治, 中村静, 高梨克也, 河原達也, “円滑な発話権制御のための談話行為の連鎖に基づく フィラーの生起と形態の予測,” 人工知能学会研究会資料, SLUD-B506-04, 2017. [Link]
  • 稲熊寛文, 井上昂治, 三村正人, 河原達也, “LSTM-CTCによる音声対話におけるSocial Signalsの検出,” 情報処理学会研究報告, SLP-115-9, 2017. [Link]
  • 中西亮輔, 井上昂治, 中村静, 高梨克也, 河原達也, “発話行為の連鎖を考慮したフィラーの生起と形態の分析,” 人工知能学会研究会資料, SLUD-B505-30, 2016. [Link]
  • 稲熊寛文, 井上昂治, 中村静, 高梨克也, 河原達也, “初対面対話における韻律的特徴に基づくアイスブレーキングの分析と予測,” 人工知能学会研究会資料, SLUD-B505-29, 2016. [Link]
  • 井上昂治, Lala Divesh, 高梨克也, 河原達也, “階層ベイズモデルを用いた聞き手の多様なふるまいに基づく対話エンゲージメントの推定,” 人工知能学会研究会資料, SLUD-B505-28, 2016. [Link]
  • 井上昂治, Milohorat Pierrick, Lala Divesh, 趙天雨, 河原達也, “自律型アンドロイドERICAによる社会的役割に則したインタラクション,” 人工知能学会研究会資料, SLUD-B505-7, 2016. [Link]
  • 石田真也, 井上昂治, 中村静, 高梨克也, 河原達也, “傾聴対話システムのための発話を促す聞き手応答の生成,” 人工知能学会研究会資料, SLUD-B504-01, 2016. [Link]
  • 稲熊寛文, 井上昂治, 中村静, 高梨克也, 河原達也, “初対面対話における場の和みのマルチモーダルな分析と検出,” 第78回情報処理学会全国大会, 6Q-02, 2016.
  • 石田真也, 井上昂治, 中村静, 高梨克也, 河原達也, “傾聴対話システムのための多様な聞き手応答の生成,” 第78回情報処理学会全国大会, 6Q-01, 2016. 学生奨励賞
  • 井上昂治, 三村正人, 石井カルロス寿憲, 河原達也, “自律型アンドロイドERICAのための遠隔音声認識,” 日本音響学会2016春季研究発表会, 1-1-1, 2016. 学生優秀発表賞
  • 中西亮輔, 井上昂治, 中村静, 高梨克也, 河原達也, “自律型アンドロイドによる円滑な発話権制御のためのフィラーの生起位置と形態の分析,” 人工知能学会研究会資料, SLUD-B503-11, 2016.
  • 山口貴史, 井上昂治, 吉野幸一郎, 高梨克也, Ward G. Nigel, 河原達也, “傾聴対話システムのための言語情報と韻律情報に基づく多様な形態の相槌の生成,” 人工知能学会研究会資料, SLUD-B503-9, 2016.
  • 井上昂治, 河原達也, “自律型アンドロイドEricaのための音声対話システム,” 人工知能学会研究会資料, SLUD-B502-5, 2015. [PDF]
  • 山口貴史, 井上昂治, 吉野幸一郎, 高梨克也, Ward G. Nigel, 河原達也, “多様な相槌をうつ傾聴対話システムのための相槌形態の予測,” 人工知能学会研究会資料, SLUD-B502-1, 2015.
  • 井上昂治, 若林佑幸, 吉本廣雅, 高梨克也, 河原達也, “ポスター会話における音響・視線情報の確率的統合による 話者区間及び相槌の検出,” 日本音響学会2015秋季研究発表会, 2-2-4, 2015.
  • 井上昂治, 若林佑幸, 吉本廣雅, 高梨克也, 河原達也, “スマートポスターボードにおける視線情報を用いた話者区間及び相槌の検出,” 情報処理学会研究報告, MUS-107-68, 2015. [Link]
  • 井上昂治, 若林佑幸, 吉本廣雅, 高梨克也, 河原達也, “スマートポスターボードにおける視線情報を用いた話者区間検出及び相槌の同定,” 第77回情報処理学会全国大会, 6P-09, 2015. 学生奨励賞
  • 若林佑幸, 中山雅人, 西浦敬信, 山下洋一, 井上昂治, 吉本廣雅, 河原達也, “拡散性雑音環境下における多人数会話のマルチモーダル話者区間検出.” 日本音響学会2015春季研究発表会, 1-Q-24, 2015.
  • 山口貴史, 井上昂治, 吉野幸一郎, 高梨克也, 河原達也, “傾聴対話における相槌形態と先行発話の統語構造の関係の分析,” 人工知能学会研究会資料, SLUD-B403-4, 2015.
  • 井上昂治, 若林佑幸, 吉本廣雅, 高梨克也, 河原達也, “ポスター会話における音響・視線情報を統合した話者区間及び相槌の検出,” 情報処理学会研究報告, SLP-105-9, 2015. [Link]
  • 井上昂治, 若林佑幸, 吉本廣雅, 河原達也, “多人数会話における音響情報と視線情報の確率的統合による話者区間検出,” 日本音響学会2014秋季研究発表会, 2-8-4, 2014.
  • 井上昂治, 若林佑幸, 吉本廣雅, 河原達也, “多人数会話における視線情報を用いた話者区間検出,” 情報処理学会研究報告, SLP-102-1, 2014. [Link]
  • 若林佑幸, 井上昂治, 河原達也, 中井駿介, 宮崎亮一, 猿渡洋, “スマートポスターボードにおける音響情報と画像情報の統合による話者区間検出,” 日本音響学会2014春季研究発表会, 2-Q4-7, 2014.
  • 中井駿介,宮崎亮一,猿渡洋,中村哲,井上昂治,若林佑幸,河原達也, “スマートポスターボードにおける実環境を想定した複数話者分離,” 日本音響学会2014春季研究発表会, 2-Q4-8, 2014.
  • 井上昂治, 松隈俊大, 黒木祥光, “相互錐制約部分空間法,” 第15回画像の認識・理解シンポジウム (MIRU 2012), OS11-05, Aug. 2012. (Oral, Oral acceptance rate = 37.2%, 48/129) [Link]
  • 黒崎正行, 伊東亮, 松尾宗明, 宮岡佑弥, 井上昂治, 江口翔馬, 尾知博, 黒木祥光,  宮崎明雄, “暗号領域での認証を用いたJPEG 2000 画像無線伝送システム,” 電子情報通信学会 2012 年総合大会, March 2012.
  • 井上昂治, 黒木祥光,  “スパース表現を用いた照明変化に頑健な顔認識に関する研究,” 平成23年度(第64回)電気関係学会九州支部連合大会, Sep. 2011. (Oral)
  • 江口翔馬, 井上昂治,  黒木祥光,  “ディジタルシネマの実時間処理に向けたGPGPUによるJPEG2000の高速化,” 平成23年度(第64回)電気関係学会九州支部連合大会, Sep. 2011.
  • 井上昂治, 江口翔馬, 黒木祥光, 黒崎正行, 尾知博, “複数のGPUを用いたデジタルシネマ画像の実時間ウェーブレット変換,” 電子情報通信学会技術研究報告, SIS-111-210, pp. 45-49, Sep. 2011. [Link]
  • 松尾正輝, 井上昂治, 黒崎正行, 黒木祥光, 斉培恒, 尾知博, “4K デジタルシネマ無線伝送システムのための JPEG 2000 並列化,” 画像電子学会 第255回研究会, March 2011.

Others

  • 井上昂治.
    博士の学位取得後の大学に就職するキャリア
    IEEE 関西支部 Young Professionals 博士課程のキャリアについて語る会, Sep. 2019.
  • 石井亮, 井上昂治, 千葉祐弥, 角森唯子, 成松宏美, 福田悠人, 増村亮.
    国際会議報告(SIGDIAL, ACL, IJCAI-ECAI, COLING, Interspeech, ICMI, EMNLP, IVA, SEMDIAL)
    人工知能学会 言語・音声理解と対話処理研究会 (SLUD) 第84回研究会 (第9回対話システムシンポジウム), Nov. 2018.
    [PDF]
  • 井上昂治.
    対話におけるエンゲージメント推定
    第二回 ERATO石黒共生HRIプロジェクトシンポジウム, Aug. 2018.
    [Link]
  • 井上昂治, 河原達也.
    会話エンゲージメントの自動認識~相手が会話に興味があるかがわかります~
    第12回京都大学ICTイノベーション, March 2018.
    [Link]
  • 井上昂治, “聞き手のふるまいに着目した対話エンゲージメントの分析と予測,” 電子情報通信学会第52回VNV研究会 May. 2016.
  • 井上昂治, “対話ロボットは空気を読めるか?,” 日本音響学会北陸支部第7回音響セミナー ビギナー成果発表会, Dec. 2015. [Link]
  • 山口貴史, 井上昂治, 吉野幸一郎, 高梨克也, Nigel G. Ward, 河原達也, “多様な形態の相槌をうつ傾聴対話システム,” 第18回日本音響学会関西支部若手研究者交流研究発表会, 11, Dec. 2015. 優秀奨励賞
  • 井上昂治, “ポスター会話における音響・視線情報を統合した話者区間及び相槌の検出,” 第41回関西音声合同ゼミ, A-10, July 2015.
  • Koji Inoue, “Multi-modal conversational analysis in poster sessions,” Multi-modal Interaction Workshop, April 2015. [Link]
  • 井上昂治, 吉本廣雅, 河原達也, “スマートポスターボード -聴衆の反応のセンシング-,” 第9回京都大学ICTイノベーション, March 2015. [Link]
  • 井上昂治, 若林佑幸, 吉本廣雅, 河原達也, “多人数会話における視線情報を用いた話者区間検出,” 第17回日本音響学会関西支部若手研究者交流研究発表会, 10, Dec. 2014. [Link] 優秀奨励賞
  • 若林佑幸, 中山雅人, 西浦敬信, 井上昂治, 吉本廣雅, 河原達也, “マルチモーダル話者ダイアライゼーション ~Who speaks when?~,” 第17回日本音響学会関西支部若手研究者交流研究発表会, 12, Dec. 2014.
  • 井上昂治, “多人数会話における視線情報を用いた話者区間検出,” 第39回関西音声合同ゼミ, B.3, July 2014. [Link]
  • 井上昂治, 河原達也, “スマートポスターボード -聴衆の反応のセンシング-,” 第8回京都大学ICTイノベーション, Dec. 2013. [Link]