<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>RockyLinux10 on </title>
        <link>/tags/rockylinux10/</link>
        <description>Recent content in RockyLinux10 on </description>
        <generator>Hugo -- gohugo.io</generator>
        <language>ja-jp</language>
        <lastBuildDate>Tue, 07 Apr 2026 23:17:00 +0900</lastBuildDate><atom:link href="/tags/rockylinux10/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>さくらのAI Engineを使った対話型AIアバターを作ってみた</title>
        <link>/rockylinux9/sakura-ai-engine-conversation-character/</link>
        <pubDate>Tue, 07 Apr 2026 23:17:00 +0900</pubDate>
        
        <guid>/rockylinux9/sakura-ai-engine-conversation-character/</guid>
        <description>&lt;p&gt;先日、とある会社のオフィスを訪問するとエントランスにAIと連携した3Dの社員が設置されており面白いと思った。
アニメ風かつ口パクなら自分でも似たようなもの作れるんじゃないか？と考え、
最近遊んでいるさくらのAI Engineを使って会話文、音声データを生成するものを作ってみた。
コードと画像は普段使っているgeminiで生成した。&lt;/p&gt;
&lt;h2 id=&#34;デモ動画&#34;&gt;デモ動画
&lt;/h2&gt;&lt;p&gt;会話がインチキすぎて成り立たず笑ってしまったw
&lt;div class=&#34;video-wrapper&#34;&gt;
    &lt;video
    controls
    src=&#34;/videos/2026-03-22-inchiki.mov&#34;
    
    
    &gt;
        &lt;p&gt;
            Your browser doesn&#39;t support HTML5 video. Here is a
            &lt;a href=&#34;/videos/2026-03-22-inchiki.mov&#34;&gt;link to the video&lt;/a&gt; instead.
        &lt;/p&gt;
    &lt;/video&gt;
&lt;/div&gt;
&lt;/p&gt;
&lt;h2 id=&#34;リポジトリ&#34;&gt;リポジトリ
&lt;/h2&gt;&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/ma3ki/ma3ki_workshop/tree/main/ai_conversation&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;ai_conversation&lt;/a&gt;&lt;/p&gt;
&lt;h2 id=&#34;仕組み&#34;&gt;仕組み
&lt;/h2&gt;&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;「会話生成API」にて回答と感情の抽出
ブラウザで認識した音声をテキスト化し、さくらのAI Engine の会話生成APIへリクエストを送信します。プロンプトによって回答の冒頭に [happy] などの感情タグを付与するように制御しており、バックエンド側でこのタグを解析することで、回答文と「キャラクターの今の感情」を切り分けて抽出しています。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;「音声合成API」による発話データの生成
音声データの生成(再生)は３パターンに対応した。複数対応した理由はさくらのAI Engineの音声合成APIは無料枠が限られているため。&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;ul&gt;
&lt;li&gt;さくらのAI Engine の音声合成APIに渡して固有の音声データ生成&lt;/li&gt;
&lt;li&gt;edge-tts&lt;/li&gt;
&lt;li&gt;Chromeブラウザ内蔵TTS&lt;/li&gt;
&lt;/ul&gt;
&lt;ol start=&#34;3&#34;&gt;
&lt;li&gt;ブラウザ側での感情表現とリップシンク制御
フロントエンドは、受け取った感情データに基づいてキャラクターの画像を切り替えながら、音声の再生時間に合わせて「口の開閉画像」を一定間隔でループさせることで、口パクを実装しました。これにより、AIの回答とキャラクターの動きが同期した自然な対話体験を作っています。&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;作ってみて&#34;&gt;作ってみて
&lt;/h2&gt;&lt;p&gt;キャラクター画像と設定ファイルを用意すればどんなキャラクターにも対応できるので面白いと思った。
例えばアニメのキャラクター画像を生成して子供と会話させてみたり。&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
