2011年
成立時間
3394.2萬元
注冊資本
曠視堅持企業(yè)自律,致力于引領(lǐng)負責任的AI,持續(xù)推動人工智能行業(yè)可靠、可依賴、可信任的健康發(fā)展。
2019年起,曠視先后發(fā)布《人工智能應(yīng)用準則》、成立人工智能道德委員會和人工智能治理研究院,旨在聚焦負責任AI 的治理探索,從正當性、人的監(jiān)督、技術(shù)可靠性和安全性、公平和多樣性、責任可追溯和數(shù)據(jù)隱私保護六個方面規(guī)范自身發(fā)展。曠視堅信企業(yè)對AI治理的重視有助于AI行業(yè)的健康發(fā)展。
依托曠視“用人工智能造福大眾”的使命,以及人工智能應(yīng)用引發(fā)的道德挑戰(zhàn),曠視認為開展人工智能商業(yè)應(yīng)該有清晰的邊界和方向性,曠視相信技術(shù)所構(gòu)建的應(yīng)用是讓這個世界更美好的,讓每個人的生活更安全、更便捷、更快樂。
發(fā)展負責任的人工智能對于曠視,乃至全球的未來都意義深遠,曠視也將在自律并賦能行業(yè)的同時,與全球同仁持續(xù)開展深度的交流合作。