GPTとは違う、自分だけの専門家AIを作る|個人開発の裏側と無料公開の試み

「ChatGPTがあれば、もう専門家はいらないんじゃないか」
最近そんな声をよく聞きます。

たしかに、今のGPTは十分に“それっぽい答え”を返してくれます。
質問すればすぐに返事が返ってきますし、言葉も丁寧です。
ただ、実際に専門的な判断が必要な場面で使ってみると、
「一貫性がない」「答えが浅い」「立場が変わると話が変わる」――そんな違和感にぶつかることも。

僕は今、住宅購入者向けの相談AIを作っています。
一見すると「家について質問したら答えてくれるAI」に見えるかもしれませんが、
その設計の根本にはひとつの強い前提があります。

それは、このAIを“1人で作っている”ということ。

専門家AIに必要なのは“正しさ”より“判断の筋道”

AIを使って専門分野に特化したGPTを作る人が増えてきました。
でも、「正しい知識を答える」ことと、「矛盾なく判断する」ことは、全く別物です。

たとえば住宅の場合、設計士と不動産業者ではまったく価値観が違います。
設計士は「理想の空間」を考えますが、予算には鈍感なことがある。
不動産業者は「立地・価格・売りやすさ」が第一で、建築の中身を深く見ないこともある。

この2つの立場の言うことは、時に真逆になります。
ユーザーはその板挟みにあい、混乱する。
設計に従えば高くつき、不動産の言う通りに動けば理想から離れる。

つまり、「誰の視点で語っているか」が変われば、
“正解”も簡単に変わってしまうのです。

法律ですら、矛盾をはらんでいる

よく「法律は一貫しているから、それに従えば矛盾は起きない」と思われがちです。
けれど実際には、法律の中にも“立場の違いによるズレ”が存在します。

たとえば建築基準法と民法では、
「建てられるもの」と「許されるもの」がズレていることがあります。

知識を横断しない限り“正しさ”は簡単にぶつかる。

分業では作れない理由

専門家AIに必要なのは、「たくさんの知識」ではありません。
それらをどう比較し、どこに軸を置くかという“判断の設計”です。

複数人でAIを作ると、ここにズレが生まれます。
質問Aでは「築30年でも大丈夫」と言いながら、
質問Bでは「築20年を超えると危険」と答えてしまう。

それぞれが自分の経験に基づいて正しいことを言っていても、
全体としてのAIの答えが“ちぐはぐ”に感じられる。

僕は実務で、設計・不動産・リフォーム・資金計画、それぞれの現場に立ち会ってきました。
それぞれの立場の優先順位や信念も違って当たり前だと感じています。
だからこそ、「この矛盾は、どこで吸収して、どこで割り切るか」を自分で決める。

一貫性のある判断を形にしたいなら、その価値観の源泉を1人で担うしかないのです。

今はまだ試作段階

この専門家AIが、誰にでも使いやすくなるまでには、もう少し調整も必要です。

でも僕は今、この“判断構造そのものを再現するAI”が、これからの専門性の形になると信じています。

今はそれがうまく動くかを、自分自身で試している最中。
また少しずつ、報告していきたいと思います。

This article explores why expert AI should be built by individuals, not in divided roles.
It reflects on consistency in thinking, and shares a personal attempt to make such systems freely accessible.
Browser translation is recommended for non-Japanese readers. Thank you for reading!