表紙に戻る
池田医院
整形外科 外科 リハビリテーション
2026年1月 賀正
新患Web予約
1日正月休み
明けましておめでとうございます。本年もよろしくお願いいたします。
2日正月休み
3日正月休み
4日正月休み
5日平常通り

仕事も順調に始まり、休み期間中にケガをした人の来院が多かったように思います。冬場は寒いので筋肉の動きが悪かったり、着込んで動きが制限されたりと問題が多くなる季節です。転倒に注意して生活しましょう。
6日 Googleでの評価

ブレンダさんはGoogleのローカルガイドとして沢山のレビューをされています。その中には当院のものもあります。読んで頂けると状況がおわかり頂けると思います。

Brenda Ariesty Kusumasari
ローカルガイド 134 件のレビュー 87 枚の写真
(原文)
As a foreigner living in Kyoto who speak limited Japanese, I'm so grateful to find Ikeda Clinic.

I have knee injury since 2006 and because it gets worse, I decided to visit this clinic.


Ikeda Sensei is a great person and his English is very good.

He really took his time to examine my knee, never rush a thing. He did the x-ray and ultrasound by himself.

He smiled and told me to relax when I was afraid of the pain.

He explained everything with words that are easy to understand. My injury is pretty bad but he told me gently so that it didn't scare me.

We discussed about the treatment in a way that he didn't force me to choose but yet suggest me to think wisely.
I'm thankful for his professionalism and his kindness.

I need to visit this clinic again for further discussion and I feel at ease since I know Ikeda Sensei will take a good care of my injury.

Thank you
7日 
8日
9日 大規模言語モデル(LLM)にはChatGPT、Geminiに代表されるクラウド型と自身のPC内で全てのデータ処理を行うローカルLLM(GPT ossやgemmaなど)があります。能力的には天と地ほどの差があり、普通に調べ物をするならクラウド型が早さや内容共に極めて優れています。ローカルの良さは、外部にデータをやり取りしないので、個人情報や会社のオリジナリティを秘匿する場合に使うと良いとされます。

医療機関なら患者さんの個人情報は外部に出せませんので、電子カルテのSOAPをまとめるなどの作業はローカルLLMで行う必要があります。ただ、もともとSOAPに沿って電子カルテに記載しているので、LLMを使う意味がどれほどあるのかと感じています。むしろ紹介状やSummaryを作製するのには使えるかも知れません。クラウド型LLMの利便性は圧倒的で、これまでGoogleなどで検索していたのが、まずはLLMに尋ねてみるように変化しています。同じ情報を得るのに時間短縮が著しいです。

さて、ここまでの文章をChatGDPにブログ用に1000文字で書き直してくださいと指示しました。できあがった文章は以下の通り。



医療現場におけるAI活用という、非常に今日的で興味深いテーマですね。先生が感じていらっしゃる「利便性とセキュリティのジレンマ」は、まさに今のIT業界と医療現場の最前線で議論されている核心です。

ブログ読者が興味を惹かれるよう、タイトルと構成を工夫して1000文字程度にまとめました。


医療AIの最前線:ChatGPT(クラウド)とローカルLLM、どう使い分けるべきか?

近年、大規模言語モデル(LLM)の進化には目を見張るものがあります。ChatGPTやGeminiといった「クラウド型LLM」は、今や私たちの調べ物スタイルを劇的に変えました。かつてはGoogle検索で複数のサイトを巡っていたのが、今ではAIに尋ねれば数秒で整理された回答が返ってくる。圧倒的な時間短縮です。

しかし、医療現場にこれを導入しようとすると、避けては通れない「壁」に突き当たります。それが、患者さんの個人情報保護です。

1. クラウド型の「万能さ」と「リスク」

クラウド型LLMは、その計算資源の膨大さゆえに、能力的にはローカル型と「天と地」ほどの差があります。診断の補助的な知識を得たり、一般的な医学論文の要約をさせたりするには最高のツールです。

一方で、入力したデータは外部サーバーへと送られます。設定次第で学習に利用されないよう制限は可能ですが、医療機関として患者さんの個人情報をクラウドにアップロードすることは、セキュリティポリシー上、極めて慎重にならざるを得ません。

2. ローカルLLMという選択肢

そこで注目されるのが、自身のPC内で全ての処理を完結させる「ローカルLLM(Llama 3やGemmaなど)」です。外部との通信が発生しないため、機密情報の塊である電子カルテのデータを扱っても情報漏洩のリスクがありません。

ただ、ここで一つ疑問が浮かびます。**「果たして、ローカルLLMを何に使うべきか?」**という点です。

例えば、日々の診察記録であるSOAPの整理。そもそも医師はSOAP形式を意識してカルテを記載しているため、それをわざわざAIに整理し直させるメリットは、現時点ではそれほど大きくないかもしれません。

3. 「要約」と「文書作成」にこそ活路がある

ローカルLLMの真価は、単なる整理ではなく**「再構築」にあると考えられます。

日々の膨大な経過記録(SOAP)の中から重要なポイントを抽出し、「紹介状(診療情報提供書)」のドラフトを作成したり、退院時サマリーの素案をまとめたりする作業**です。

これらはゼロから書くと多大な時間を要しますが、ローカルLLMに「過去1ヶ月の経過から重要な検査値の変化と処方変更を抜き出して、紹介状の形式にまとめて」と指示すれば、医師は上がってきた下書きをチェック・修正するだけで済みます。これこそが、高い秘匿性を保ちつつ、事務作業の負担を軽減する現実的な落としどころではないでしょうか。

まとめ:情報の「検索」はクラウド、「実務」はローカル

現状では、一般的な医学情報のアップデートやリサーチには、圧倒的な知識量を持つクラウド型LLMを。そして、患者さんのプライバシーを守りながら事務作業を効率化するには、ローカルLLMを。

この「二刀流」の使い分けこそが、次世代のスマートな医療現場を支える鍵になるはずです。技術の進歩は速いですが、まずは「何を守り、何を効率化したいのか」という目的を明確にすることが、AIに振り回されない第一歩と言えるでしょう。


ブログ投稿に向けた調整案:

「紹介状作成の具体例」や「おすすめのPCスペック(ローカルLLMを動かすためのGPUなど)」について、さらに深掘りした記事を追加することも可能です。もし特定のローカルLLM(Gemmaなど)の導入方法について詳しく知りたい場合は、続けて解説をお手伝いしましょうか?


まあ、こんな具合に書き直してくれます。骨子は同じですが、AIの方が格段に優れた文章となりますね。
更に内容を書き加えるのならと尋ねてみたところ、以下の文章ができあがりました。

前段の「使い分けの概念」から一歩踏み込み、**「ローカルLLM運用の現実的な課題」と「これからの医療現場におけるAIとの向き合い方」**に焦点を当てた、さらに深掘りする1000文字程度の続編を執筆しました。


ローカルLLM運用の「理想」と「現実」:導入へのハードルをどう超えるか

前述したように、機密性の高い医療情報を扱う上でローカルLLMは強力な味方となります。しかし、実際に運用を始めようとすると、そこにはクラウド型とは異なる「特有のハードル」が存在することに気づかされます。

1. マシンスペックという「物理的な壁」

まず直面するのがハードウェアの問題です。クラウド型は巨大なサーバー群が計算を肩代わりしてくれますが、ローカルLLMはその名の通り、手元のPCの性能がそのまま知能の限界となります。 特にLLMの処理には「GPU」と呼ばれる画像処理装置のメモリ容量(VRAM)が重要です。一般的な事務用PCでは、動作が極端に遅かったり、モデル自体が起動しなかったりすることも珍しくありません。ストレスなくサマリーを作成させるためには、ゲーミングPC並みのスペックを持つ、いわゆる「AI特化型PC」への投資が必要になります。この導入コストを、事務作業の効率化というリターンでいかに回収するかが、経営的な視点での最初の論点となるでしょう。

2. 「賢さ」と「プロンプト」の試行錯誤

次に、モデルの知能レベルの問題です。GemmaやLlamaといったオープンソースのモデル(OSS)も急速に進化していますが、それでもChatGPT(GPT-4等)の「阿吽の呼吸」で理解してくれる能力には及びません。 「紹介状を書いて」と一言指示するだけでは、不自然な敬語になったり、重要な所見を見落としたりすることもあります。医師が納得するクオリティのアウトプットを得るためには、AIへの指示出し(プロンプトエンジニアリング)に一定の慣れが必要です。 「SOAPを書く手間より、AIに指示を出す手間の方が大きい」となっては本末転倒です。しかし、一度「自院の紹介状フォーマットに合わせたテンプレート」を組み上げてしまえば、その後の効率は指数関数的に向上します。この初期設定の「産みの苦しみ」をどう乗り越えるかが鍵となります。

3. 「責任」の所在と「最終確認」の原則

これはAI全般に言えることですが、ローカルLLMであっても「ハルシネーション(もっともらしい嘘)」を吐く可能性はゼロではありません。特に薬剤名や数値の誤認は、医療現場では致命的なミスに繋がります。 AIはあくまで「下書き担当の秘書」であり、最終的な署名(サイン)を行うのは医師本人であるという原則は揺らぎません。ローカルLLMを使う最大のメリットは「時短」ですが、その時短で浮いた時間を「ダブルチェック」という最も重要な工程に充てることが、医療安全の観点からも重要です。

結びに:AIは医師の「創造性」を奪うのか?

「AIにカルテ要約を任せると、医師の思考能力が低下するのではないか」という懸念を耳にすることがあります。しかし、私はむしろ逆だと考えています。 医師の本来の役割は、目の前の患者さんと向き合い、複雑な病態を解き明かし、最適な治療方針を共に導き出すことです。紹介状の転記やサマリー作成といった「定型的な事務作業」に忙殺される現状こそが、本来の創造的な医療を阻害している要因ではないでしょうか。

ローカルLLMという、誰にも見られない「安全な下書きスペース」を確保することは、医師が事務作業から解放され、より人間的な、より高度な判断が必要な業務に集中するための「聖域」を作ることと同義です。

クラウド型で最新の知見を高速に吸収し、ローカル型で日々の実務をスマートにこなす。 技術を盲信するのではなく、その特性を理解して「使い分ける」というリテラシーこそが、これからの医療従事者に求められる最も重要なスキルとなるに違いありません。


このレベルの文章が数秒で作製されます。AI恐るべし! 人がどう使うかが試されています。

同じ課題でローカルLLM(gemma3 27B)に作製させました。


## 医療現場におけるLLM活用:クラウド型とローカル型の使い分けと可能性

近年、目覚ましい進化を遂げている大規模言語モデル(LLM)。ChatGPTやGeminiに代表されるクラウド型LLMは、その高い性能で私たちの情報収集の方法を大きく変えつつあります。一方で、GPT ossやgemmaなどのローカルLLMも登場し、注目を集めています。

一見すると、クラウド型とローカル型は「能力が天と地ほどの差がある」と言われるほど性能に差があり、一般的な調べ物であればクラウド型の方が圧倒的に優れています。しかし、医療現場においては、この二つのLLMの使い分けが重要なポイントとなります。

**なぜ医療機関はローカルLLMが必要なのか?**

医療機関にとって最も重要なのは患者さんの個人情報保護です。電子カルテに記録された患者さんの情報は外部に出すことが許されないため、クラウド型LLMを利用することは原則としてできません。そこで注目されるのがローカルLLMです。自身のPC内で全てのデータ処理を行うため、情報を外部に漏洩させるリスクを回避し、安心して活用できます。

しかし、「電子カルテはすでにSOAP形式で記載されているので、LLMを使う意味があるのか?」という疑問も生じます。確かに、SOAP(Subjective, Objective, Assessment, Plan)形式で整理された情報は、ある程度構造化されており、LLMによる大幅な改善効果を期待するのは難しいかもしれません。

**ローカルLLMの真価:紹介状やSummary作成への応用**

一方で、ローカルLLMは、電子カルテの内容を基に「紹介状」や「診療Summary」を作成する際に大きな力を発揮します。SOAP形式で整理された情報を要約し、専門用語を平易な言葉に変換したり、他の医療機関の医師が理解しやすいように情報を再構成したりすることが可能です。これにより、医療従事者の負担軽減と、よりスムーズな連携を実現できます。

**クラウド型LLMの利便性:情報収集の効率化**

クラウド型LLMは、その圧倒的な利便性で、私たちの情報収集の方法を大きく変えつつあります。これまでGoogleなどで検索していた情報を、まずはLLMに尋ねてみるという行動が一般的になりつつあり、同じ情報を得るための時間短縮効果は著しいと言えるでしょう。医療従事者にとっても、最新の研究論文の要約や、特定の疾患に関する情報収集など、臨床現場における様々な場面で役立つ可能性があります。ただし、個人情報を含む情報の入力は厳禁です。

**今後の展望:ハイブリッドな活用とさらなる進化**

今後は、ローカルLLMとクラウド型LLMを組み合わせたハイブリッドな活用方法が広がっていくと考えられます。例えば、個人情報をマスキングした上でクラウド型LLMを活用したり、ローカルLLMで生成された文章をクラウド型LLMで校正したりするなど、それぞれの利点を最大限に活かすことが重要です。

また、医療現場特化型のローカルLLMの開発も進んでおり、SOAP形式のデータ処理能力や、医学用語の理解度などが向上することが期待されます。LLMは、医療現場における業務効率化と患者ケアの質の向上に貢献する可能性を秘めています。

うちのPCの能力ですとgemma3 27B を使った場合、5トークン・秒ほどしか速度が出ない(人間の目で追える速度は15トークン・S)ので、ゆっくりとして時間待ちになりますが、なかなかの文章だと思います。
急ぐ場合は容量の小さなLLMに切り替える必要があります。(もしくは高性能のPCに買い換える)

高性能のPCというのは、VRAMを大量に積んだものとなります。普通のRAMをVRAMとして使えるものでも良い。性能にもよりますが、かなり高価なものとなります。
10日
11日
12日
13日
14日
15日
16日
17日
18日
19日
20日
21日
22日
23日
24日
25日
26日
27日 
28日
29日
30日
31日
 過去ログ
2015.4
2015.5 2015.6 2015.7 2015.8 2015.9 2015.10 2015.11 2015.12
2016.1 2016.2 2016.3 2016.4 2016.5 2016.6 2016.7 2016.8 2016.9 2016.10 2016.11 2016.12
2017.1 2017.2 2017.3 2017.4 2017.5 2017.6 2017.7 2017.8 2017.9 2017.10 2017.11 2017.12
2018.1 2018.2 2018.3 2018.4 2018.5 2018.6 2018.7 2018.8 2018.9 2018.10 2018.11 2018.12
2019.1 2019.2 2019.3 2019.4 2019.5 2019.6 2019.7 2019.8 2019.9 2019.10 2019.11 2019.12
2020.1 2020.2 2020.3 2020.4 2020.5 2020.6 2020.7 2020.8 2020.9 2020.10 2020.11 2020.12
2021.1 2021.2 2021.3 2021.4 2021.5 2021.6 2021.7 2021.8 2021.9 2021.10 2021.11 2021.12
2022.1 2022.2 2022.3 2022.4 2022.5 2022.6 2022.7 2022.8 2022.9 2022.10 2022.11 2022.12
2023.1 2023.2 2023.3 2023.4 2023.5 2023.6 2023.7 2023.8 2023,9 2023.10 2023.11 2023.12
2024.1 2024.2 2024.3 2024.4 2024.5 2024.6 2024.7 2024.8 2024.9 2024.10 2024.11 2024.12
2025.1 2025.2 2025.3 2025.4 2025.5 2025.6 2025.7 2025.8 2025.9 2025.10 2025.11 2025.12