} ?>
(Yicai Global) 6月12日-中国が昨年導入した次世代人工知能ガバナンスの原則は結果をもたらしましたが、企業は特にユーザーのプライバシーに関して、規範の強化にもっと積極的に取り組む必要があります。次世代AIガバナンスに関する全国専門委員会の委員長によると。
この原則は多くの人々の注目を集めており、より多くのAI企業がそれに基づいて独自の内部管理方針を発表していると、Xue Lan教授は上海で開催された世界人工知能会議での最近のインタビューで述べました。このコードは国際社会からも広く認識されていると彼は付け加えた。
科学技術省の後援の下で運営されている委員会は、昨年6月に原則を発表し、中国で責任あるAIを開発することを約束しました。当時、Xueは、急上昇するテクノロジーの開発とガバナンスをより適切に調整し、安全、制御可能、信頼性を確保することを目的としていると述べました。
XueはWAICでのインタビューでYicai Globalに、中国のAI企業はアプリケーション分野で良好な結果を達成したが、いくつかの問題があると語った。第一に、ユーザーデータへのアクセスを最小限に抑えるべきであり、第二に、すでに取得されたデータに対してより厳格なプライバシー保護を行うべきであると彼は述べた。
法律や規制による政府の取り組みに加えて、企業はデータ収集を積極的に縮小し、プライバシー保護を強化して、テクノロジーや製品がより多くのユーザー認識を獲得できるようにする必要があります。中国の清華大学のシュワルツマン大学の学部長でもあります。
AIガバナンス委員会のメンバーでもある東中国政治学大学政治学研究所のGao Qiqi学部長は、今年は2年連続でWAICが人工知能ガバナンスフォーラムを開催しました。これは、AIの開発で発生する可能性のあるプライバシー保護、セキュリティ、および拡大する社会的不平等の問題に対処するために重要です。これらの問題は、完全に対処されていない場合、AIの開発を妨げます。
AIはまだ新しい分野であり、国際社会はそのガバナンスについて合意に達していない、とGaoはYicai Globalに語った。このフォーラムの重要性は、より多くの学者、企業、および民間人がAIガバナンスについての見解を表明し、国際標準の開発に参加し、促進できるようにすることです。
編集者: Peter Thomas