抄訳 ONNXはNCHW形式のデータを受け付ける 他方通常ビルド形式のTensorflowはNHWC形式のデータしか受け付けない 実際のサーバではGPUを使いたくない MKLを使用するとCPUでもHCHW形式の予測が可能になる tensorflow-serving公式のDockerfileはMKL形式でビルドしていない 公式Dockerfileを改造したら予測が動くようになった 詳細 Pytorchで訓練したモデルをONNX形式にexportしてtensorflow-servingで配信というフローがやりたかった。 公式のDocker Imageを普通にpullすると、config=nativeoptでビルドされたtensorflowを使用することになる為、MKLを導入するにはビルドの仕方を改造する必要がある。 公式のDockerfileからローカルでビルドを行う方法についてはこちらを参照
