Speech Link 2025年7月ニュースレター

こんにちは、Speech Linkチームです。
突然ですが、「自分の声を、もう一度聞きたい」
──そんな願いを抱えながら、言葉を失った方が世界にはたくさんいます。
今月のニュースレターでは、まさにその“願い”を現実に変える研究、そして私たちSpeech Linkが進めているβテストのリアルをご紹介します。
🧠 トピックス1:世界が注目する研究:
脳から“本人の声”を再生する時代が、もう始まっています。

カリフォルニア大学バークレー校と同サンフランシスコ校の共同研究チームは、発話不能となった患者の脳活動をリアルタイムで音声合成するBMI(Brain-Machine Interface)技術を開発し、2025年3月31日付の『Nature Neuroscience』誌に発表しました。
URL: https://www.nature.com/articles/s41593-025-01905-6
この技術では、80ミリ秒ごとに脳信号をデコードし、1秒以内という極めて短い遅延で発話を再現できるストリーミング合成モデルが用いられています。詳細はバークレーエンジニアリングの公式発表にもまとめられています。
参考: https://engineering.berkeley.edu/news/2025/03/brain-to-voice-neuroprosthesis-restores-naturalistic-speech
Ann Johnsonさんの臨床ケース
被験者のAnn Johnsonさん(47歳)は、2005年に脳梗塞により全身麻痺と発話障害を負い、以後18年間、自分の声を発することができませんでした。

今回の臨床試験において、脳の運動皮質からの信号をAIが解析し、Annさんの発症前の声に近い音声を1秒未満の遅延で再現しました。話速は約47語/分と、日常会話に近い速度を実現しました。
実際にYouTubeに当日のビデオが上がっています。
Annさんは、自分の声を再び聞いたとき、「涙が出るほど嬉しかった」と語ったといいます。
出所: https://www.thetimes.co.uk/article/stroke-patient-thoughts-converted-into-speech-almost-instantly-s7cc0c9dw (読むには契約が必要です)
この技術に使われたAIモデル
この研究に用いられたAIは、ChatGPTのような大規模言語モデルとは異なり、「リアルタイムで話すためのAI」として最適化された構造です。具体的には、以下の3つのステップから構成されます:
1. Neural Decoder(神経デコーダ):脳信号を解析し、意図された音素を認識するモデル(DNNベース)。
2. Phoneme-to-Speech Synthesizer:音素列を自然な音声へ変換(Hifi-GANやWaveNetなど高速合成)。
3. Voice Personalization Layer:過去の録音データから声質を再現する個別調整モジュール。
このモデルは、脳波や音声のリアルタイム制御には不向きです。ただし、今後LLMとBMI技術の融合は研究トレンドの1つであり、たとえばMetaも「脳波→意図推定→自然言語」領域に取り組んでいます。
参考https://www.techspot.com/news/106721-meta-researchers-unveil-ai-models-convert-brain-activity.html
なぜ失語症の方にとって福音なのか?
まだ実用化には時間がかかるかもしれませんが、このような技術が一般に普及すれば、失語症に悩む方にとって“声を取り戻す”手段の一つになる可能性があります。
・声を取り戻す = 存在を取り戻す
“その人らしさ”を再生し、社会と再びつながるきっかけとなります。
・自然な会話テンポ
1秒未満の遅延は、会話の流れを崩さず、疎外感を和らげます。
・“本人の声”に近い再現性
家族や周囲にとっても、単なる代替音声ではない「本人の声」での表現は大きな意味を持ちます。
Speech Linkは、このような世界の最前線に目を向けつつ、「いま困っている人にとって、いまできること」を形にしていきます。
🧪 トピックス2:Speech Linkも、いま“声”を届ける実験を進めています。

Speech Linkでは、2025年6月25日〜7月31日にかけて、初のクローズドβテストを実施しました。
正式リリースに向け、実際の当事者の方々にご協力いただきながら、機能の使い勝手や課題点を洗い出す貴重なフェーズとなりました。
実施概要
・実施期間:2025年6月25日〜7月31日
・参加者構成:13名の失語症など言語障害を持つ当事者
・利用環境:iOS 80%、Android 10%、Mac/PC 10%
主に試された機能
・AIとの対話機能:2つの異なる会話モードを試用していただき、応答性や話しやすさを評価
・レッスン予約画面:言語聴覚士の空き枠を閲覧・予約
・その他:画面遷移、フィードバック表示、マイクの精度など
参加者からの声(抜粋)
① 「AIの返答が速すぎて聞き取れない」「もっと間がほしい」「タイミングが早すぎる」という指摘が複数人から明確に出ていたため、AIが話すスピードを調整する機能を追加いたしました。
② 「特定モードの使い方が分からない」「トラブルシューティングが欲しい」「使うには時間がかかる」など、主に使い勝手の点に関するご要望も複数いただきました。 この声を受け、ヘルプ機能の強化を行いました。
見えてきた課題と次の一手
主に以下のポイントを改善中です:
・会話タイミングの最適化
・使い勝手などの見直し中
・反応速度と安定性
また、8月以降は第2フェーズ(β2)へと移行し、対象を拡大してベータテスト運用を開始予定です。皆さんの中、またはお知り合いの中にも参加を希望される方がいたら、このメールを転送頂くか、以下の応募フォームをお知らせください。
Speech Linkは、“言いたい”を“言える”に変えるための進化を続けています。
βテストにご協力いただいた皆さま、ありがとうございました。
皆さまの声が、これからのSpeech Linkを形作っていきます。
トピックス3:メディアでもSpeech Linkが紹介されました!

私たちの取り組みが、7月1日付けの東京新聞・朝刊で大きく取り上げられました。Speech Linkがどのように“ことばの再獲得”を支えているのか、当事者の声と共に紹介されています。
また、イー・ウーマン主催「ダイバーシティ円卓会議」にも参加し、失語症とAIの可能性について社会的な対話を広げる場となりました。
🕊️ “声”を通して、つながる世界へ
Speech Linkは、「言いたい」を「言える」に変えることを目指して、これからも進化していきます。
もしあなたの周りに、「うまく話せなくて困っている人」「言いたいのに言えない状況の人」がいたら、
ぜひこのプロジェクトのことを教えてください。
一緒に、“ことばの自由”を広げていけたら嬉しいです。
それでは、また次号でお会いしましょう。