CNワークショップ2024 で発表しました!

はじめに

今回M1の櫻井とB4の佐野が石川県加賀市で行われたCNワークショップ2024に参加しましたので、参加報告を行います。
コラボレーションとネットワークサービスを始め、幅広い分野を扱う研究会です。CN研究会のホームページはこちら

櫻井

発表内容

私が発表したタイトルは「Web議論におけるLLMの情報推薦タイミングに重要な要素の検討」です。概要は以下の通りです。

「本研究では,Web議論において,議論参加者に適切なタイミングで情報を推薦するエージェントの改良を目指した.以前の研究で用いた「情報の必要性」と「検索可能性」の2つの尺度のうち,「情報の必要性」に着目し, この要素として「議論の収束具合」,「議論の活性度」,「知識のギャップ」,「質問の有無」,「意見の対立」の5つを提案した.プロンプトを改善し,それぞれの要素が情報推薦のタイミングに与える影響を評価することを考えている.」

質疑応答

発表後にいくつかの質疑とコメントをいただきました。以下にその回答とともに示します。


Q:このweb議論というものはリアルタイムのものか、掲示板のような想定なのか、どちらを想定しているのか?

A:どちらでもできると思っている、過去の研究では参加者全員で同時に開始するリアルタイムのような方法で行った。

コメント:質問があった時だけではなく、違う意見があった時に何か推薦できるのは良いと思った。


Q:投稿を受け取ってからタイミングを決定するまでにどれくらいの時間がかかっているか?

A:30秒から1分程度。

Q:リアルタイムだと少し厳しいのではないか?

A:厳しいが、現状解決策が見つかっていない。

Q:パラメータを複数に分けて出力して後で合算する方法がいいかも。他の文脈に依存しなくなるという研究があったはず。

A:試してみたい。

検索可能性が前に出力される情報の必要性などの影響を受けているとは考えていなかった。API呼び出し回数は増えるが、処理時間短縮のためにも試してみたいと思った。


Q:意見の対立はLLMで検出できるのか、遠回しに伝える日本人だと特に難しいのではないか?

A:今は簡単な言葉で指示しているだけだから検出できるかどうかわからない。

コメント:これだけでも研究になりそう。

確かに日本人の場合特に意見の対立を検出するのは難しそう。それだけで1つ研究をするのもおもしろそうだと思った。

気になった研究

発言量に基づいて顔をぼかすビデオ会議システムにおける性差の調査

ビデオ会議にて顔を見せることに対して、男性より女性の方が抵抗があるらしい。発言時間に応じてぼかしが減っていくシステムを使ったとき、ぼかしがなくなってほしくないから発言を控えたかった人がいたらしい。しかし、男女問わず、コミュニケーションにおいて相手の顔が見えることは大切らしい。

学習支援チャットボットのヒント提示による学習効果の向上

教授に対して質問することをためらう人がいるため、匿名で利用できるチャットボットを作成し、GPTによりヒントを出すことで学習の支援を試みた研究だった。答えを示すのではなく、ヒントを出すことによって学習の支援する点が興味深かった。普段自分は生成AIに頼りすぎていると感じることがあるため、このような機能はいいなと思った。 セキュリティのリスクはあるかもしれないがRAGを用いて、授業資料を入れることで、より授業内容に沿ったヒントが提示できるのではないかと思った。

佐野

発表内容

発表タイトルは「LLM による共感の促進と感情的対立の低減のためのファシリテーション手法の設計」です。概要は以下の通りです。

「議論において各個人の主張が対立した際,感情的な衝突に発展する場合がある.このような対立は論理的な話し合いや組織間の連携を妨げ,地域コミュニティの衰退を助長する可能性も考えられる.本研究では,これを防ぐためにLLM を活用し,感情的対立を低減させるシステムを提案する.」

質疑応答

発表後にいくつかの質疑とコメントをいただきました。以下にその回答とともに示します。


Q: NVCにおける観察とは何か?

A: 相手に注目するということ。相手の内面やなぜそういう主張なのかの根源的なものも含めて見ようとすること。(今思うと、それをどのようにシステムに組み込んでるのかという意図の質問だったのかもしれません。そういう意味ではNVCは人が扱う手法なので、多少システムとのミスマッチがあるのかもしれません。)


Q: 感情的対立の度合いの精度を高めるためにどのようなことをしているか?

A: 一定間隔で、このように推定される場合はこの数値、のような例を示している。具体的な入力の例は与えていない。

Q: もう一つのGPTでその推定を評価させてもいいかも

A: 複数のGPTで推定させて、平均を取る方法もあるかもしれません。


Q: 難しいと思うけれど、感情的対立の度合いの推定の妥当性は?

A: GPTの推論のみ。今後の課題です。(現状、システムの動作の指標にしているだけなので、0〜1といった連続的な推定ではなくある程度離散的なものにしてもいいのかもしれない、と思いました。)

気になった研究

空間の暗さが創造的協同作業に与える影響の調査

先行研究や予備調査から、暗い場所では一定量の発話量や親密度の上昇が見られるらしいです。相手の視線や表情を感じにくいことが原因ではと考察されていました。 また、暗いほうがテンション上がるといういけんもありました。作業と同様に議論も明るい場所が良いと思っていましたが、この視点は面白いと感じました。

政治イデオロギーを持つLLMエージェントの生成

LLMエージェントによるフィルターバブルの再現により、フィルターバブルの認識させることが最終目的であり、そのためのLLM生成の研究です。 この研究ではFine Tuningなどは使わずにプロンプトによりどの程度イデオロギーを持たせられるかの調査でした。 そもそも、LLMは左派的な思想を持つらしく、極左的な思想は持たせやすいが、極右的な思想は持たせにくいようです。