楽待実践大家コラムをご覧の皆様、元ポスドク理系大家です。
久しぶりのコラム執筆になります。賃貸業の繁忙期ですが、本業も繁忙期で大変です。幸い賃貸業の方は、原状回復中の空室も賃貸予定なので満室で 4 月を迎えられそうです。一方の本業は納期が 3 月の案件が多数あり全て無事に終わるかどうか心配です汗
そんな忙しいはずの本業ですが、今日は確定申告のために半休を取得(まあ、裁量労働なので半休は存在しないのですが)しました。と言っても、税理士さんを訪問して雑談がてら申告に必要な書類を渡すだけです。それだけでは勿体無いということで久しぶりコラムを書いております。
AI 知識の連載コラム 3 回目ということで、話題の chatGPT を取り上げたいと思います。chatGPT 自体は既にテリー隊長さん、北国の大家さん、さきちさんがコラムを書かれているので、chatGPT そのものの紹介ではなく、chatGPT の技術面について解説したいと思います。ただし、コラムである都合、科学的な正確性は犠牲にしています。もっと知りたいという方は開発元の OpenAI の論文や GitHub で公開されているソースコードをご覧ください。
答えを教えてくれる AI ではない
chatGPT に質問を投げかけると自然な受け答えをしてくれるので、「質問の答えを教えてくれる AI」だと思われている方がいるかもしれませんが、それは違います。
正しくは、「人間らしく会話できる AI」です。
「人間らしく」というのが 1 つポイントになります。ここで、会話の場面を 1 つ思い浮かべてください。例えば、親子の会話としましょう。子供は好奇心旺盛で大人にいろいろ質問を投げかけてきます。邪険に扱う親もいるかもしれませんが、普通はなんとか答えようとしますよね。
それができるのはなぜでしょうか。
その答えは、大人は「いろいろな文章や会話を見聞きしてきた経験がある」からです。
文章や会話を細かく分けると単語やそれらをつなぐ付属語に分解できますが、人間は意識的にあるいは無意識的にそれらを組み合わせることができます。それで話したり書いたりできるわけです。「人間らしく会話できる AI」は、この組み合わせ処理をする AI なのです。
専門的には NLP(Natural Language Processing)と呼んでいます。日本語に訳すと「自然言語処理」です。
chatGPT の仕組み
具体的にどのように処理しているのかですが、GPT(Generative Pre-trained Transformer)と呼ばれる深層学習(ディープラーニング)の手法を使っています。以下は、AI 知識の連載コラムで毎回出している図です。
この図から分かるように教師データ(学習データ)をニューラルネットワークで処理するのが基本です。ディープラーニングのディープとはニューラルネットワークが深い=多層であるという意味です。多層のニューラルネットワークを用いることの利点は特徴量を明示的に与える必要がないということです。
もう少し分かり易く説明すると画像認識で人の顔を抽出する処理を考えてみます。このとき特徴量とは目・鼻・口などの局所的なパーツごとに定義できる明暗の差とかに相当します。従来はこれらの特徴量を人間が定義する必要があったのですが、ディープラーニングではそれが不要になります。なお、特徴量はパラメータとも呼ばれます。
chatGPT で使われている GPT-3(数字はバージョンを表す)では 1750 億のパラメータを使って自然言語処理を行っています。社会的に大きな話題になっている理由の 1 つは、このパラメータが飛躍的に大きいからです(これまではせいぜい数 10 億だった)。学習データには、Wikipedia や Web から自動収集したテキストデータ(データ容量としては45TB)を前処理して作成した 570GB のデータセットを用いています。ここで前処理というのは、文章を単語に分解するような処理になります。
人間らしくもあり、機械らしくもある
「人間らしく会話できる AI」なので間違うこともあります。いろいろな検証がされていますが、簡単に確認する方法は、科学的な命題を説明させることです。私は天文学で博士号を取得したので、天文学の例を紹介します。以下の手順で検証されている方がいました。
まず、月はどのようにして形成されたかについて、説明してもらいます。すると、いろいろな仮説を紹介してくれます。さらに会話を続けて、いろいろな仮説の中から 1 つを詳しく説明してもらいます。さらに詳しく説明してもらった仮説に対して、さらに反論している論文を教えてもらうという会話で検証されていました。
その結果ですが、chatGPT だと、反論している論文を教えるところで全部デタラメ(架空の論文を教えるなど)な内容を返してきたそうです。参照元を教えてくれないので、専門家でないと検証できないのが厳しいですね。
しかし、GPT-3.5 や GPT-4 などの後バージョンだと参照元も教えてくれるようです。実際、GPT-4 が利用されている Bing AI で同じ検証をしたところ参照元も紹介してくれたそうです。ただし、不適当な論文を提示されることも多いそうです。
まとめると、「人間らしく会話できる AI」は
「知ったかぶりをする」
という実に人間らしい会話ができる AI だということです!
親の皆さんも子供の質問に知ったかぶりで返答されたことはないですか?
「ソースを出せ」
と言っても怒られないのは良いですね(笑)
一方、いかにも機械らしいところもあります。大学のレポートを chatGPT に書かせたらバレたという話です。まあ、そもそも参照元を教えてくれるくらいだから、レポートを提示して、「これは AI で書かれたものですか?」と質問すれば検証できてしまうのですが、バレた理由は他にもあって、文法的な誤りや誤字・脱字が全くない文章だったということでバレたということでした。人間にはそれは難しいですよね。
実践大家コラムは無くならないし、必要とされなくなることもない!
テリー隊長さんのコラムと反対の結論みたいな感じになりますが、chatGPT の技術面から考えて、私はこのように考えています。もちろん、編集部が実践大家コラムを止めてしまったり、コラムニストがコラムを全く書かなくなったら無くなりますが、AI に駆逐されてしまうことはないでしょう。
理由の 1 つは、実践大家コラムは学習データを提供する側であるということです。不動産投資の AI があるとしたら、実践大家コラムは AI に必要とされている存在なのです。
まあ、そもそも不動産投資の理想の 1 つである「同じものが 1 つとして存在しない不動産を相対取引で安く買って、高く貸す」という歪みを取る行為そのものが AI とは非常に相性が悪いです。相場より安いとかの検出はできますが、それがお買い得なのか買ったらダメなヤツかの区別はできません。判断できる AI なんか作れません。学習データがないんで。AI の連載コラムの 2 回目で価格評価について紹介しましたが、使えそうな感じに見えませんでしたよね。
もちろん、業者がマイソクや重説を作るのを省力化するとかなどの効率化にとっては有用ですし、AI で評価したと言って、新築や築浅の区分マンションに投資させるような悪用はすることがあっても、
個人がやる不動産投資(法人を作ったとしても)は、AI とは全く関係ないところで勝負できる世界です!
それが不動産投資の良いところだと私は確信しています。その方が良いに決まっている!!
プロフィール画像を登録