要点

  • OpenAIは、今週から一部のユーザーを対象にChatGPT Healthを提供開始し、今後数週間でより広範囲に展開予定であると発表しました。
  • この機能は、健康に関する会話を他のチャットとは別に保存し、OpenAIのモデルのトレーニングには使用しません。
  • プライバシー保護の専門家らは、AIツールと共有される健康データが米国の医療プライバシー法の適用外となることが多いと警告しています。

水曜日、OpenAIはChatGPTの新機能を発表し、ユーザーが医療記録やウェルネスデータを連携できるようになったことから、一部の専門家や擁護団体が個人データの利用について懸念を示しています。

カリフォルニア州サンフランシスコに本拠を置くこのAI大手は、「ChatGPT Health」と名付けられたこのツールが医師と共に開発され、病気の診断や治療ではなく、ケアをサポートすることを目的としていると述べました。同社は、ユーザーが自分の健康についてより良く理解するための助けになる方法として位置付けています。

多くのユーザーにとって、ChatGPTはすでに医療やメンタルヘルスに関する質問のための主要なプラットフォームとなっています。

OpenAIは

Decrypt
に対し、ChatGPT Healthは一般的な「事実に基づく健康情報」のみを提供し、「個別化されたり危険な医療アドバイス」は行わないと述べました。

リスクの高い質問については、一般的な情報を提供し、潜在的なリスクに注意を促し、状況をよく知る薬剤師や医療提供者との相談を勧めるとしています。

この動きは、同社が10月に、100万人以上のユーザーが毎週チャットボットで自殺について議論していると報告した直後のことです。当時、これは全ChatGPTユーザーのおよそ0.15%に相当していました。

これらの数字は全体のユーザー数から見ると比較的小さい割合ですが、ほとんどのユーザーはセキュリティやデータプライバシーの懸念に対応しなければならないと専門家は指摘しています。

「企業がプライバシー保護を主張していても、消費者は自分のデータがどのように利用・保持・再利用されるかについて、実質的な同意や透明性、コントロールを持てないことが多い」とPublic Citizenの大手テクノロジー責任追及担当J.B. Branch氏は

Decrypt.
に語りました。「健康データは特に機微なものであり、明確な法的制限と強制可能な監督がなければ、自己管理による保護策だけでは、誤用や再特定、またはその後の被害から人々を守るには十分ではありません。」

OpenAIは声明で、ChatGPT Healthの健康データはデフォルトで暗号化され、他のチャットとは別に保存され、基盤モデルのトレーニングには使用されていないと述べました。

Center for Democracy and Technologyの上級政策顧問であるAndrew Crawford氏によれば、多くのユーザーは健康データの機微性に基づき保護されていると誤解しているが、実際には誰がそのデータを保有しているかに依存していると指摘しています。

「健康データが医師や保険会社によって保持されている場合は、HIPAAのプライバシールールが適用されます」とCrawford氏は

Decrypt
に語りました。「同じことは、健康アプリの開発者やウェアラブル健康トラッカー、AI企業など、HIPAAの対象外の事業者には当てはまりません。」

Crawford氏は、ChatGPT Healthのローンチは、テクノロジー企業が保有する健康データを網羅的に規制する連邦プライバシー法が存在しない現状では、責任の負担が消費者にのしかかっていることを浮き彫りにしていると述べています。

「現在の連邦法や規制では、日常的に使っている技術が自分のデータをどのように扱い、共有しているかについて、各消費者が自分で判断しなければならないという負担を強いる形になっているのは残念です」と彼は述べました。

OpenAIは、ChatGPT Healthをまずは少数のユーザーに展開すると述べました。

ウェイトリストは欧州連合および英国以外のChatGPTユーザーに開放されており、今後数週間のうちにウェブおよびiOSでより広く利用可能になる予定です。OpenAIの発表ではGoogleやAndroidデバイスについては触れられていませんでした。