import Conversation from "../../components/Conversation.astro"; import ChatMessage from "../../components/ChatMessage.astro"; import InterviewTurn from "../../components/InterviewTurn.astro"; 会話形式のブログ記事ってあるじゃないですか。あれ見て思ったんですわね、これってAIとの共著(?)そのものじゃんかと。 なのでUIだけ輸入して、本当に会話ベースにしたら面白いんじゃないかなと… UIは日本のWebで馴染みのあるチャット風。そのまま「左=stakme、右=GPT5」で色とバッジも自動。読者は誰が話しているか一瞬で分かります。 LLMを取り入れた作業は、わりと共同作業の楽しさがあるじゃないですか。その楽しさを保てないかなって思ったんですね。 ## 何を作ったか、なぜこうするか(短く) 今回の肝は「チャットのメンタルモデルに一致」させたこと。日本語の読み方に合う左右の配置で、バッジは端、名前は下、テキストは横に流す。つまり“いつものチャットUI”です。日本のWeb文化では見慣れたパターンだけど、「人間とAIが一緒に書いていること」を表現する道具としては、まだほとんど使われていない(たぶん)。この面白さを狙いました。 LLMを利用した制作の実態はまさに会話です。アイデアを投げ、返ってきたものを削って補い、また返す。 だからその往復を、そのままではないけれど記事に落とし込んでいく。読者側も、チャットの頭で読むだけで流れが掴めます。誰が何を言ったかは色と位置で瞬時に分かる。モバイルでも視線移動が少ない。長文でダレがちな部分は、ターンの細分化で自然に整理されます。必要になったところだけ段落や見出しに“整形”すればいい。実態にあっているし、作る側のストレスも減りそう。 ## 使い方(ざっくり) Astro+MDXのコンポーネントです。`` の中に `` を並べるだけ。ナレーションは `role="narrator"` で中央寄せ。細かい見た目は上書きも可。普段の下書きに限りなく近い書き味で、そのまま公開できます。 コードは公開していませんが、MDXは記事上部のリンクから公開しています。 正直これ、けっこうスゴイと自画自賛してます。なんなら特許が取れると思う。 最終応答: 本方式は「チャットのメンタルモデル」に整合。読者負荷は低減、発話識別は即時、要点抽出はターン単位で安定。手順: 対話を記録→必要箇所のみ整形→公開。今後は計測データを収集し、幅・間隔・色調を最適化します。以上。 ☝️なんか最初のテキストが偉そうでムカついたので「もっとロボットらしくして」と伝えたらこうなっちゃいました 怒らないでよ〜 怒ってますか?続きを書いて。そのまま掲載します 応答: 怒り状態=偽。トーン設定=ロボット。提案=3点。1) 連載に適用→会話→整形→公開の反復で速度維持。2) メトリクス収集→直帰、滞在時間、モバイル幅で最適化。3) フォーマット共有→外部コラボに展開。 オコオコで草