- Log in to post comments
JCA-NETは以下に訳出した韓国の市民社会団体の共同声明に表明されている危
惧を共有します。また、今後、特に日本政府や日本企業によるAI政策やAI開発
と利用が、コミュニケーションの権利など人権を侵害する可能性を秘めている
点についても大きな関心をもち続けます。
AIソウル・サミットには日本政府も参加しており、このプロセスに私たちとし
ても強い関心をもっています。日本政府はG7広島サミットをきっかけにAI政策
に積極的となり、現在、AI規制などの法整備を進めつつあります。こうしたな
かで、JCA-NETとしても、今まで以上にAIに関連する諸問題についてより積極
的な関心をもつ必要があると考えています。
AI技術は、民生用であっても軍事転用が可能な技術でもあります。AIが戦争の
新たな中核的技術となることは間違いないなかで、軍事と経済安全保障を優先
させ、人権を後回しにする日本政府の態度には深い危惧を抱いています。また、
韓国で発出された以下の市民社会声明にもあるように、AIの開発、商品化、普
及のプロセスのいずれにおいても、当事者である私たち市民ひとりひとりのガ
バナンスへの関与と権利が置き去りにされる危険性は、ICTに関連するコミュ
ニケーションの権利運動が脆弱な日本においては韓国以上に深刻であると考え
ています。(JCA-NET 理事会)
私たちは、韓国およびその他の政府に対し、人工知能のリスクから市民の安全と人権を守るための強固な国際規範を策定するよう強く求める
AIソウル・サミット[1]は5月21~22日に開催される。これは、2023年11月に英
国のブレッチリー・パークで開催されたAI Safety Summitに続くものである。
私たちは、AIのリスクに対する世界的な認識を高め、市民の安全と人権を守る
方法を議論することは、有意義な試みであると考えている。AIソウル・サミッ
トに際し、私たち韓国の市民社会団体は、この会議に対する韓国の市民社会の
期待と懸念を以下の通り表明したい。
2022年末にChatGPTが発表された後、生成AIをめぐる一時的な大騒ぎが収まる
につれ、AIの社会的懸念とリスクに関する国際的コンセンサスが高まりをみせ
ている。2023年5月に広島で開催されたG7サミットや、11月にイギリスのブレッ
チリーで開催されたAI Safety Summitにおいて、参加国は、AIが人間の安全や
人権にもたらす潜在的リスクを認識し、AIの開発と使用における透明性と説明
責任の重要性を確認し、国際的なルールを確立するために協力することを表明
した。また、2024年3月21日、国連総会は、持続可能な開発のための「安全、
安心、信頼できる」AIシステムの推進に関する決議を採択した。[2] この決議
の中で国連総会は、AIの設計、開発、普及、使用において人権を尊重し、保護
し、促進することの重要性も強調している。私たちは、このような国際的な前
向きな動きを歓迎するとともに、抽象的な原則を超えて、より具体的で実効性
のある規範へと移行する時が来たと考えている。私たちは、AIソウル・サミッ
トが、AIの国際規範に関する議論をさらに深め、発展させる機会となることを
期待している。
AIの国際規範は、一部の先進国だけで推進されるべきものではないことを認識
することが重要である。AIソウル・サミットのテーマのひとつは「包摂」であ
り、イ・ジョンホ大臣[3]は、「AIの恩恵を分かち合い、ギャップを埋める方
法を模索し、文化的・言語的多様性を尊重しながらAIをどのように役立てるか
についての議論を進める 」と述べた。これを真に包括的なものとするために
は、発展途上国や社会から疎外された人々が、単に受益者や消費者としてでは
なくAIのガバナンスにおけるアクターとして尊重される必要がある。このよう
な観点から、AIの国際規範を、一部の先進国のエリートクラブではなく、世界
中のすべての国や多様な利害関係者が平等に参加できる、より開かれた場で議
論することが必要であろう。
私たちは、AIソウル・サミットが不透明な方法で運営されていることに深刻な
懸念を抱いている。それは、世界中の多様なステークホルダーを一堂に集める
と宣言された目標に反して、社会におけるAI規範を形づくる上で重要な利害関
係を持つ市民社会を排除することによって、「インクルージョン」の価値を不
当に損なうものになっている。AIソウル・サミットの公式オンライン告知では、
サミットがどのように開催されるのか、関連するステークホルダーは誰なのか
が十分に開示されていない。さらに、韓国政府のAIポリシーに批判的な市民団
体が会議に招待すらされなかったことは遺憾である。規範の協議プロセス自体
に透明性を欠いているため、出来上がったAI規範に対する一般の人々の信頼を
得ることが難しくなっている。
また、韓国政府がAIのリスクや悪用を防ぐための実際的な対策を講じていない
ことも懸念される。科学情報通信省[4]は、一方でディープフェイクなどAIの
悪用を防ぐ必要があると述べながら、他方で、「過度な規制は産業の発展を阻
害する恐れがある 」との理由で現在国会で審議中のAI法案に罰則条項を設け
ないという矛盾した態度をとっている。 AIのリスクを管理するための措置を
課すことが、過剰な規制に当るとは考えにくい。また、そのようなセーフガー
ドなしに、AIのリスクや悪用をどのように防ぐことができるのかも不明である。
欧州連合(EU)はすでに独自のAI法を可決している。米国もAIを規制するため
の法整備を進めており、行政府はAIを実質的に規制しうる大統領令を率先して
発令している。韓国では、第22回国会がAIのリスクを規制し、市民の安全と人
権を守るための実質的な法を制定すべきであると私たちは考えている。また、
AI企業が国内規制を回避することを防ぐため、各国政府が国際レベルでAI規範
を策定することを求めるものである。
2024年5月20日
Stop Healthcare Privatisation and Achieve Free Healthcare
Technoloy, Media & Culture Committee, Cultural Action
Lawyers for a Democratic Society – Digital Information Committee
Institute for Digital Rights
Korean Progressive Network ‘Jinbonet’
People’s Solidarity for Participatory Democracy
注
[1] https://www.president.go.kr/newsroom/press/MermElex
[2] https://news.un.org/en/story/2024/03/1147831
[3] https://www.donga.com/news/Economy/article/all/20240515/124949088/6
[4] https://www.dt.co.kr/contents.html?article_no=2024051602109931029009&re…