Googleは8月2日、スマホ最新モデル「Pixel 6」を発表した(下の写真)。 Googleは独自でスマホ向けプロセッサ「Tensor SoC」を開発した。 名称が示している通り、これはAI処理に特化したプロセッサで、スマホはAIマシンに進化した。 Googleはスマホ向けに様々なAIシステムを開発してきたがプロセッサ性能が限界に達し、今回、独自にプロセッサを開発し、性能を大幅にアップグレードした。 Pixel 6の概要このシリーズは「Pixel 6」と「Pixel 6 Pro」の二つのモデルから成り、今年の秋から出荷が始まる。 製品価格やハードウェア仕様など詳細情報は公表されていない。 発表のポイントは高速AIプロセッサで、Googleはスマホの機能をAIで拡充する戦略を取る。 これにより、AIがカメラの性能を大幅に機能アップする。また、AIがリアルタイムの通訳となり、異なる言語で会話できる。 更に、最新の基本ソフト「Android 12」を搭載し、カラーデザインが洗練されユーザインターフェイスが大幅に改善された。 スマホ向けプロセッサGoogleはスマホ向けのプロセッサ「Tensor SoC」(下の写真)を独自で開発した。 SoCとは「System on a Chip」の略で基本ソフトを稼働させるメインのプロセッサとなる。 今までGoogleは、半導体企業QualcommからSoC (Snapdragon)を調達してきたが、Pixel 6向けにはこれを独自で開発した。 Tensorという名称が示すように、AI処理に重点を置いたプロセッサ構成となる。 一方、SoCを構成するユニットとして、CPU、GPU、5G Modemなどがあるが、Googleはこれらを独自で開発したのかどうかについては公表していない。(米国メディアはSoCのベースをSamsungからライセンスを受け、GoogleはAIプロセッサの部分を開発したと推測している。) カメラと画像処理Googleはカメラで撮影したデータをAIで処理して写真やビデオを生成する手法を取る。 これは「Computational Photography」と呼ばれ、カメラのセンサーが捉えたイメージをAIで解析しダイナミックレンジの広い画像「HDR」を生成する。 また、暗闇の中でもフラッシュや三脚を使わないで鮮明な写真を生成する技術「Night Sight」を開発してきた。 このプロセスで大規模なAI計算が発生し、これをTensor SoCが担う。 また、Pixel 6ではカメラと関連センサーは本体に収まらず、帯状のデバイス「Camara Bar」に格納される(先頭の写真、黒色の長方形の部分)。 言語処理AI機能のもう一つの柱は言語処理で言語モデルが言葉を理解してユーザとのインターフェイスとなる。 「Google Assistant」が人間の秘書のように言葉を理解してタスクを実行する。 また、AIアプリ「Recorder」は録音した言葉をテキストに変換する機能を持つ(下の写真)。 会議での発言を録音し(左端)、Recorderがそれをテキストに変換し(中央)、議事録を作成する。 後日、議事録を検索して特定の発言を見つけることができる(右端)。 Pixel 6はこれをもう一歩すすめ、同時通訳機能が登場した。 Pixel 6のTensor SoCで翻訳プロセスが実行され、クラウドを経ることなく、デバイス上でリアルタイムに実行される。 Material YouGoogleは開発者会議Google I/Oで基本ソフトの最新モデル「Android 12」と新たなデザインコンセプト「Material You」(下の写真)を発表した。 Android 12はMaterial Youを搭載する最初の基本ソフトでPixel 6でこれを製品として提供する。 Material Youは色をベースとしたシンプルなデザインで、機能性と個人の個性を追求したインターフェイスとなる。 Material Youを使ってみると既に、Android 12のベータ版が公開されており、Material Youを使うことができる(下の写真)。 Material Youでは基本色調「Basic Color」を設定すると画面のコンポーネントがその色となる。 例えば、基本色調をブルーに設定すると(左端)、画面のボタンやアイコンの色がブルーに (中央)なる。 また、ブラウンに設定するとその色を基調としたデザインとなる(右端)。 更に、Material Youではボタンの形状が丸みを帯び、サイズも大きくなり、優しいイメージに進化した。 Pixel 4でAndroid 12のMaterial Youを使っているが、タッチしやすく温かみを感じるインターフェイスとなった。 スマホハイエンド市場への挑戦Googleは2016年10月、Pixelを発表しスマホ事業に参入し、Pixel 6は第六世代のモデルとなる。
Pixelシリーズは一貫してAIでスマホを構成する戦略を取り、Googleのコア技術である画像解析と言語モデルをスマホに応用してきた。 Google PixelのカメラはAIで構成され、世界でトップレベルの高品質な画像を生成してきた。 しかし、近年ではApple iPhoneの機能アップが著しく、Pixelはスマホ競争から取り残されている。 Pixel 6はプロセッサを大幅にアップグレードし、再び、ハイエンド市場でシェア拡大を狙っている。 Googleの親会社であるAlphabetは、産業用ロボットを開発するため独立会社「Intrinsic」を創設した。 ロボットはムーンショット工場「Alphabet X」で開発されてきたが、ここを卒業し独立企業として製品化を目指す。 Intrinsicは、ロボットの頭脳となるソフトウェアを開発する。 日本企業は産業用ロボットで大きなシェアを占めているが、ここでGoogleとの競争が始まることになる。 Intrinsicの概要Intrinsicは、産業用ロボット(Industrial Robotics)のソフトウェアを開発する。 ロボット本体のハードウェアではなく、その頭脳となるソフトウェアを開発する。 産業用ロボットとは製造工場で組み立て作業などを行うロボットで、ソーラーパネルや自動車の製造ラインで使われる。 つまり、Intrinsicは家庭向けのヒューマノイドではなく、製造ライン向けにロボットアームを稼働させるソフトウェアを開発する。 産業用ロボットを開発する理由Intrinsicが産業用ロボットを開発する理由は、製造業を中国から米国や欧州などの先進国に戻すためである。 国際経済フォーラムによると、現在、全世界の製造量の70%を10の国が担っている(下のグラフィックス)。 特に、中国はその28.4%を占め、世界の工場として稼働している。 Intrinsicが開発するロボットを使えば、どこにでも簡単に製造ラインを構築できる。 各国が自国に製造施設を持つことができ、新たなビジネスが生まれる。 更に、消費地に近い場所で製造することで、製品を輸送する距離が短縮され、地球温暖化ガスの削減につながる。 特に、米国は自国に製造業を呼び戻す政策を進めているが、2030年までに作業員が210万人不足すると予想され、これを産業用ロボットで補完する。 現行の産業用ロボットの限界現在、家電製品や自動車の製造で産業用ロボットが使われているが、そのテクノロジーは旧態依然のままであり、これがロボットの普及を妨げている。 産業用ロボットのソフトウェアは特定のタスクを実行するために書かれている。 これはハードコーディングと呼ばれ、例えば、部品の溶接ではそれ専用にコーディングする。 また、パネルを接着してケースを作るには、そのタスクに特化したコーディングをする。 このため、タスクごとにソフトウェアを開発することになり、多数のエンジニアを必要とし、完成するまでに時間を要す。 Intrinsicのアプローチこれに対し、Intrinsicは高度なAIを使いインテリジェントな産業用ロボットを開発する戦略を取る。 チームは数年にわたり、産業用ロボットの視覚機能、学習能力、補正能力などを開発してきた。 具体的には、オブジェクト認識技術(Perception)、深層学習(Deep Learning)、強化学習(Reinforcement Learning)など最新のAI技法を開発し、幅広いタスクを実行できる産業用ロボットを目指している。 プロトタイプの検証Intrinsicはこれらの機能を実装したプロトタイプを制作しその機能を検証した。 ロボットは深層学習とフォース制御機能を搭載することで、異なる形状のUSB端子を正しい場所に最適な力で挿入することができる(上の写真)。 開発に要した時間は2時間で、短時間で複雑な操作ができるロボットの開発に成功した。 また、視覚機能や計画機能を搭載することで、二台のロボットが共同で家具のパネルを組み立てることができる(下の写真)。 更に、ロボットが協調して木造家屋を組み立てることができる(下の写真)。 これはチューリッヒ工科大学(ETH Zurich)のGramazio Kohler Researchで実施されたもので、四台のロボットが協調して家屋のパネルを組み立て接着剤で固定する。 製造現場では多様なタスクを実行する必要があるが、プロトタイプは短時間で開発され、ロボットが汎用的な作業ができる目途がついたとしている。 ムーンショットを卒業チームはムーンショット工場「Alphabet X」(下の写真)で5年半にわたり、プロトタイプの開発を進めてきたが、これからはIntrinsicで産業用ロボットの商用化を目指す。 対象分野は家電産業や自動車製造やヘルスケアで、パートナー企業と商用モデルを開発する。 ロボット開発の歴史Googleのロボット開発は2013年に始まり、Boston Dynamicsなど6社を相次いで買収した。 この中には日本企業Schaftも含まれていた。 ロボット開発プロジェクトは「Replicant」と呼ばれ、Androidの生みの親Andy Rubinの下で進められた。 しかし、プロジェクトで目立った成果は無く、GoogleはReplicantを中止した。 ロボット開発を再開その後、Googleはソフトウェアに重点を移し、ロボット開発を再開した。
コア技術であるAIを駆使しインテリジェントなロボット開発を進めてきた。 その最初の成果が「Everyday Robots」で、家庭やオフィスで日々のタスクを実行するロボットを発表した。 この開発ラインから分岐し、Intrinsicは産業用ロボットを開発する。 産業用ロボット市場では多くの企業から製品が投入されており、これから日本企業など先行企業との競争が始まることになる。 テスラは自動運転ソフトウェアのベータ版のリリースを開始した。これは「Full Self-Driving(FSD)」と呼ばれ、クルマは市街地で自動で走行する。ついに、自動運転車が市場に投入された。 ただ、このソフトウェアはベータ版で、最終製品が出荷されるのは2021年末となる。 これに向けてAI開発が急ピッチで進んでおり、テスラはAI学会でコンピュータビジョンの開発状況を明らかにした。 自動運転技術の開発経緯テスラの自動運転ソフトウェアFull Self-Driving(FSD)は AIで構成され、クルマにダウンロードすることで自動運転車となる。 テスラは2020年10月にベータ版「FSD Beta」を公開し、先行ユーザが試験走行を進めてきた。 テスラはこれを改良し、今週、最新版「FSD v9 Beta」のリリースを開始した。 FSD v9 Betaは自動運転機能で、市街地をドライバーの介在無しに自動で走行する。 FSD v9 Betaの最大の特徴は、LidarやRadarを使わないで、カメラの映像だけで自動走行できることにある。 もはや、Radarも不要で、テスラ最新モデルはRadarの搭載を止め、カメラだけが実装され、センサーの構成がシンプルになった。 Full Self-DrivingとはFull Self-Driving(FSD)とはAIで構成されたコンピュータビジョンで自動運転車の中核機能となる。 カメラで捉えたビデオ画像をAIが解析し、オブジェクトの種類、オブジェクトまでの距離、及び、オブジェクトの移動速度を把握する。 テスラはこのAIを「General Computer Vision」と呼び、屋外で汎用的に使えるコンピュータビジョンとしている。 クルマは霧の中や雪道を走るが、General Computer Visionは視界が悪い環境も正しくオブジェクトを判定できる。(下の写真、試験走行中のFull Self-Driving) コンピュータビジョン学会テスラのAI開発責任者であるAndrei Karpathyは、コンピュータビジョン学会「Conference on Computer Vision and Pattern Recognition(CVPR)」でテスラのAI開発状況を説明した。 テスラの自動運転ソフトウェアFSD Betaは2000人が利用しており、170万マイルを無事故で走行した。 更に、上述の通り、最新版FSD v9 Betaが公開され、学会ではこのモデルについてシステム概要が公開された。 テスラの開発戦略テスラのターゲットはカメラだけで自動走行できるAIの開発にあり、Karpathyはそのための開発手法を明らかにした。 Waymoはアリゾナ州で自動運転タクシーを運行しているが、カメラの他にLidarやRadarを使い、異なる種類のセンサーで周囲のオブジェクトを判定する。 一方、テスラはLidarやRadarを使わないで、カメラだけで自動運転技術を開発する。極めて高度なコンピュータビジョンを必要とし、テスラはAIに会社の将来を託す形となった。 カメラの構造クルマは前後左右に8台のカメラを搭載し、これらのビデオ映像をAIで解析し、周囲のオブジェクトを把握する(下の写真)。 AIは8つのビデオ映像から周囲を3Dで把握して、オブジェクトの種類や距離や速度を把握する。 アルゴリズムの開発手法テスラは高度なコンピュータビジョンを開発するために、ニューラルネットワークを大量のデータで教育する戦略を取る。 クルマが走行中に遭遇する全ての状況を収集し、このデータを使ってニューラルネットワークを教育すると、自動走行できるポイントに到達すると考える。このため、テスラは大規模な教育データセットを構築した。 このデータセットには100万のビデオが格納され、そこに映っているオブジェクトの数は60億で、それらにはタグが付加されている。 タグ付けとはタグ付けとはビデオに映っているオブジェクトの属性を添付するプロセスを指す。 教育データ開発では、カメラに映ったオブジェクトに(下の写真上段)、その属性を付加する作業が必要になる。 通常、オブジェクトを四角の箱で囲い、その種別を付加する(下段)。タグ付け作業は専門会社に依頼するが、テスラの場合はオブジェクトの数が膨大で、人間がマニュアルで作業することはできない。 このため、テスラはタグ付けを行うAIを開発し、これをスパコンで稼働させ大量のデータを処理する。 スパコンがビデオを読み込み、そこに映っているオブジェクトの種類を判定し、自動で名前を付加する。 世界最大規模のスパコンこのプロセスは大規模な計算環境を必要歳、テスラはスパコンを独自に開発し、AIによるタグ付け処理を実行する(下の写真)。 処理能力は1.8 exaFLOPSで世界のスパコンの中で第五位の性能となる(下の写真左側、プロセッサ部分)。 プロセッサはNVIDIA A100をベースに760ノードで構成され、5760のGPUで構成される。 また、メモリ容量は10 PBでネットワーク通信速度は640 Tbpsとなる(下の写真右側、ネットワーク部分)。 自動運転AIを開発するには、世界でトップレベルのスパコンが必要となる。 ベータ版の評価既に、先行ユーザはFSD v9 Betaをクルマにダウンロードし、自動運転機能を試験している。 トライアルの様子はビデオで撮影されネットで公開されている。 これらのビデオによると、テスラは市街地において信号機に従って走行し、また、一旦停止の交差点で順番を守って発進する機能も確認されている。 複雑な市街地でドライバーの介在無しに自動で走行できることが示されている。 同時に、道路標識を見落とすケースなども記録されており、まだ完ぺきではないことも分かる。 FSD v9 BetaはあくまでLevel 2の自動運転支援システムであり、ドライバーはステアリングに手をかけ、先方を注視しておく必要がある。 大量のデータで教育すると自動運転車となるかMuskは、FSDのAI技術の改良を重ね、2021年末までに最終製品を出荷すると述べている。
今年末までに自動運転車を出荷できる根拠として、MuskはこのペースでAI開発を進めると、アルゴリズムのエラー率が大きく下がると予測している。 FSDは自動で走行するが、AIが判断を間違えた時は、ドライバーが手動でこれを補正する。 年末までに、AIが学習を重ねこの補正操作が不要となるとみている。 上述の通り、AIを膨大な数のデータで教育すると、このポイントに到達できるという前提の下で開発を進めている。 ただし、この仮定は実証されておらず、テスラにとっては大きな賭けとなる。 あと半年でFSDが自動運転車になるのか、市場が注目している。 Googleはヘルスケア部門「Google Health」を設立し、医療技術開発をここに集約した。 Google Healthは医療とAIを組み合わせ、高度なソリューションを開発している。 Googleは次のコアビジネスとしてヘルスケアを選び、事業を大規模に展開しようとしている。 Google Healthとは開発者会議Google I/Oで、Chief Health OfficeのKaren DeSalvoが、Google Healthの最新技術を公表した(上の写真)。 Google Healthはグループ内に散在していたヘルスケア部門を統合して設立された。 Google Healthはコア技術であるAIを医療技術と融合し、インテリジェントな医療システムを開発する。 特に、ビジョンAIでメディカルイメージングを解析することで、病院の医療プロセスを自動化する戦略を取る。 乳がん検査を自動化その一つが乳がん検査の自動化で、ビジョンAIががんを検知し医師の負荷を軽減する。 Googleはシカゴの医療機関Northwestern Medicineと乳がんを判定するシステムの臨床試験を進めている(下の写真)。 マンモグラフィー(Mammography)で撮影したイメージングから、医師が乳がんを判定するが、判定結果がでるまには時間を要す。この期間、患者は不安な日々を過ごすことになる。 GoogleはこのプロセスをビジョンAIで実施し、解析時間を大幅に短縮することに成功した。 検知システムの概要Googleが開発したビジョンAIは医師と同程度の判定精度を持ち、メディカルイメージングからがんを特定する。 AIががんを検知すると医師にアラートが送信され、追加検査など必要な措置が取られる。 これにより、患者は検査結果を即時に知ることができ、精神的な負担が大きく軽減する。 また、AIが医師を置き換えるのではなく、医療ツールとして機能し、最終判定は医師が下す。 眼底検査を自動化Googleは眼底の写真をAIで解析することで、糖尿病網膜症(Diabetic Retinopathy)や糖尿病黄斑浮腫(Diabetic Macular Edema)を特定することに成功した。 これらは失明の原因となるが、早期に検知することでこれを防ぐことができる。 AIは眼底の写真を解析し、出血を示す赤い斑点から糖尿病網膜症を判定する(下の写真左側;正常な眼底、右側;AIは糖尿病網膜症と判定)。 インドで臨床試験インドでは眼科医が少なく患者の多くが、糖尿病が原因で失明に至っている。 この判定をAIで実施することで、多くの人が眼底検査を受けることができる。 このアルゴリズムはGoogleとVerilyで開発され、インドのAravind Eye Hospitalで試験が実施された(下の写真)。患者は特殊なカメラ(Fundus Camera)で眼底の写真を撮影し、AIはイメージングから糖尿病網膜症と糖尿病黄斑浮腫を自動で検出する。 皮膚がんを検知GoogleはビジョンAIを使って皮膚の状態を検査する技術を開発した。 世界で20億人が皮膚や髪や爪に関する問題を抱えているが、皮膚科の医師の数は十分でない。 多くの人がGoogleの検索エンジンで医学文献を探し、自分の皮膚の状態を調べている。 しかし、文献を読み下すのは容易ではなく、Googleは皮膚病を判定するツールを開発した。 スマホアプリとして実装これはスマホアプリとして提供され、皮膚の黒点を撮影し、AIはそれががんであるかどうかを判定する。 被験者はスマホカメラで患部を撮影し(下の写真左側)、身体情報(年齢や性別や幹部の位置など)を入力し(中央)、これらをアップロードする。 AIは写真イメージから、黒点ががんかどうかを判定する(右側)。 皮膚がんの種類は288に及ぶが、AIはこれを正確に判定する。これは消費者向けのアプリとして提供され、問題があれば医師に相談する手順となる。 消費者向けヘルスケア技術開発一方、消費者向けのヘルスケア技術はFitbit部門で開発している。
Googleは人気のウエアラブルFitbitの買収を完了し、スマートウォッチなどの開発を進めている。 スマートウォッチは運動量や心拍数など身体データを収集し、これをAIで解析することで健康管理に関する知見を得ることができる。 Fitbitはハードウェア部門Nestに属し、ここで消費者向けのヘルスケア技術を開発している。 スマートウォッチはバイオセンサーとして機能し、Apple Watchを中心に、消費者向け健康管理のウエアラブルとして市場が急拡大している。 Amazonは契約社員の人事評価から解雇まで一連のプロセスをAIで実行する。 人間が関わることなく、アルゴリズムが人事を担う。 契約社員の数は400万人ともいわれ、Amazonは人間が手作業で管理することは不可能で、AIの導入が必須としている。 一方、契約社員は、突然AIからメールを受信し、解雇を通告される。ソフトウェアに首を切られることは屈辱であるが、米国でAIによる人事管理が急速に広がっている。 Amazon FlexとはAmazonの契約社員は「Amazon Flex」と呼ばれ、オンデマンドで柔軟に勤務することができ(上の写真)、その数が増えている。 Amazonはこれらの社員をAIで管理する方式を取っている。 契約社員は、時間が空いている時に、Amazonの商品を配送する運転手として勤務する。 Uberのドライバーのように、自分のクルマを使って商品を配送する。 正社員や運送企業に加え、Amazon Flexがラストマイルを支えている。 オンデマンドで勤務Amazon Flexは配送の全てのプロセスを専用アプリで実行する。 契約社員は空き時間に仕事を申し込む。 時間帯ごとに配送地区が示され、希望のスロットを選ぶ (下の写真左側)。 次に、商品を積み込む配送センターが示され(中央)、ここに出向きそれらをクルマに搭載する。スマホに、配送先の住所とルートが示され、これに従って配送する(右側)。 AIが勤務状態を管理業務は3時間のスロットで区分けされ、40件程度をこなし、時給は18ドルから25ドル。 仕事は指示されたスケジュール通り商品を配送したかで評価される。 また、消費者の指示にそって配送できたかも評価の対象となる。 例えば、盗難防止のために、玄関の鉢植えの背後に商品を置くよう指示するケースが多い。 AIは商品が配送された時間や消費者のフィードバックを元に勤務を評価し、その結果が契約社員に伝えられる。(下の写真:配送スタッフが商品を届ける(左側)。 Amazonから確かに配送したことを示す写真が送られ(中央)、パッケージを受領したら配送に関するフィードバックを送る手順となる(右側)。これらのデータで社員の勤務評価が決まる。) AIに解雇される事例仕事の評価が低く契約社員がAIに解雇される事例は少なくない。 Bloombergなどの報道によると、契約社員が時間通りに商品を配送できていないとして、AIは雇用を継続することが難しいと判断し解雇を通告する。 解雇通告は人間ではなく、AIが契約社員にメールを送信し、評価結果を説明し、解雇を告げる。 解雇が不当である場合は、契約社員はその理由を申し立てることができるが、判定を覆すことは難しい。 Amazonの作戦Amazon Flexアプリは世界で400万人がダウンロードし、米国だけでも290万人が使っている。 Amazonは、大量の契約社員を管理するにはAIの導入が必須で、社員の勤務評価から解雇まで、一連の人事プロセスを自動化する必要があると主張する。 一方、AIで人事管理を自動化するのはこれが初の試みで、Amazonは問題が発生することは事前に予測していた。 社会問題となることは覚悟の上で、問題が発生した都度ソフトウェアを改良し、公正に人事管理ができるシステムの構築を進めている。 ホワイトカラーに広がる米国で社員の仕事ぶりをAIで管理する動きが広がっている。 対象は商品配送の契約社員に留まらず、定型業務における人事管理にAIが導入されている。 コールセンターのオペレータの業務内容をAIで評価する。また、コロナが終息すると企業はハイブリッド勤務に移行し、多くの部分をリモートワークが占めることになる。 顔の見えない社員をどう評価するかの議論が始まり、AI人事評価技術に注目が集まっている。 AIは公平に判定できるかAIはビッグデータを元に判定を下すが、問題となるのがアルゴリズムの精度である。 銀行ローンをAIが判定するが、性別や人種により判定が偏り、女性が不利になるケースが少なくない。AIが人間の介入なしに社員を解雇するが、この人事評価は正しいのかが問われる。 今の法令では、Amazonはアルゴリズムが公平であることを証明する義務はない。 AIの精度を誰が保証するのか、解決すべき課題は少なくない。 AIに評価される社会人間の能力をアルゴリズムで評価することに対しては根強い嫌悪感がある。
人間に解雇されるのも苛立たしいが、AIから解雇のメールを受け取ることはなおさらである。 しかし、人事管理におけるAIの役割は広がり、多くの企業はAIで人材採用を始めている。 リモートワークが広がる中、AIとの人事面接で採否が決まるケースは少なくない。 ついに、AIが社員を採用し、仕事ぶりを評価し、解雇する社会が到来した。 |