ネットで検索してみると

「GPT とはトランスフォーマーアーキテクチャを使用するニューラルネットワークモデルの一種で、ジェネレーティブ プレトレーニング トランスフォーマーとも呼ばれます。ChatGPT などの生成系 AI アプリケーションの基礎となっている人工知能 (AI) の重要な新技術。」

のような説明が多い。

ここ数年脚光を浴びていろんな分野で活用の試行錯誤が始まっている。

いろんな種類やレベルのGPTアプリケーションが存在するので、まだまだ過渡期のようだ。
先日、専門的な領域で試してみたところ、結果に出てきた文章の節々がどこかで見たような文章。
何と、私の著作物からの引用、加工だった。
アプリケーションにもよるのだろうが、膨大な検索データから、データを組み直して文法的に整理し出力されているものが多い。
そのため、著作権的に問題有りということで、イタリアでは使用禁止になっているものもある。
また、中国では、政府の理論や方向性と違う結果が出る可能性が高いのか、使用禁止になっている。

最近脚光を浴びているのが、生成GPT。