
韓国国内のある航空会社で整備士として働く28歳のイ氏は、先月「セキュリティ上の理由から、チャットGPTなどの生成型AIの使用を禁止する」という告示を見て、驚きを隠せなかった。彼はこれまで生成AIを活用して整備資材の決算業務を処理してきた。通常60日かかる手作業をチャットGPTが代わりに処理してくれたおかげで、作業時間を2日以内に短縮できたのだ。イ氏は「数百のエクセルファイルを一つ一つ開いて目視で確認し、手作業で転記するという煩雑な作業をチャットGPTが処理してくれたおかげで業務効率が3000%向上したのに、会社から再び原始的な方法に戻るように指示が出るのは非常に歯がゆい」と語った。
セキュリティを理由に生成AIの使用を禁止する企業や公共機関が増える中、業務効率を高めようとする従業員の不満が高まっている。国家機密技術など高度な情報を扱う企業や個人情報を取り扱う公共機関などはセキュリティのために制限する傾向にあるものの、従業員らからは業務効率が大幅に低下すると反発の声が上がっている。
4日、産業界によると、サムスン電子、SKハイニックス、ポスコ、ウリ銀行などの主要大企業や中央選挙管理委員会、金融監督院、国防部などの公共機関はチャットGPTやディープシークなどの生成型AIの業務利用を次々と禁止している。中核的な特許技術や内部機密、市民の個人情報などの機密情報が生成AIに入力されると、関連情報が外部に流出する恐れがあるためだ。
生成AIは使用する不特定多数に対して回答が出力される仕組みのため、機密が漏洩する可能性もある。ある半導体大手企業の役員は「企業の核心的利益を侵害する状況が頻発している」とし、「技術流出に敏感な企業は保守的な対応を取らざるを得ない」と指摘した。
それでも従業員らは生成AIの使用を簡単には諦められない状況だ。会社や機関が利用を禁止しても、スマートフォンのデザリングやWi-Fiルーター(ポケットWi-Fi)などを利用して外部ネットワークに接続し、密かに生成AIを使用するケースが頻繁に見られる。ある韓国国内の大手企業では社内で独自の生成AIを開発したにもかかわらず、従業員らが「性能が劣る」としてチャットGPTなどを密かに使用する事例もある。
専門家らは政府が急速に進化する生成AIに対して、利用ガイドラインを整備すべきだと主張している。世宗大学情報保護学科のパク・ギウン教授は「現場での混乱が増している以上、政府レベルで利用規則を定めて発表することも一つの解決策だ」と提言した。