十の並列した脳

何でも勉強する,毎週月木曜に投稿予定

論文Abstract100本ノック番外 第55回 コンピュータビジョン勉強会@関東にて紹介された論文

第55回 コンピュータビジョン勉強会@関東にて紹介された論文について,いつも通りのノリで進めていく。

 

1 Probabilistic Face Embeddings

f:id:ryosuke_okubo:20191019065229p:plain

原文:

Probabilistic Face Embeddings

 

Abstract:

Embedding methods have achieved success in face recognition by comparing facial features in a latent semantic space.

訳:

埋め込み方法は,潜在的な意味空間で顔の特徴を比較することによって顔認識で成功を収めている。

 

However, in a fully unconstrained face setting, the facial features learned by the embedding model could be ambiguous or may not even be present in the input face, leading to noisy representations.

語彙:

unconstrained

ambiguous

leading to

訳:

ただし,完全に制約のない顔の設定では,埋め込みモデルによって学習された顔の特徴があいまいになるか入力顔に存在しない場合があり,ノイズの多い表現につながる。

 

We propose Probabilistic Face Embeddings (PFEs), which represent each face image as a Gaussian distribution in the latent space.

訳:

我々はProbabilistic Face Embeddings(PFEs)を提案する,これは各顔画像を潜在空間のガウス分布として表す。

 

The mean of the distribution estimates the most likely feature values while the variance shows the uncertainty in the feature values.

訳:

分布の平均は最も可能性の高い特徴値を推定し,分散は特徴値の不確実性を示す。

 

Probabilistic solutions can then be naturally derived for matching and fusing PFEs using the uncertainty information.

訳:

不確実性情報を使用して,PFEをマッチングおよび融合するためのProbabilistic solutionsを自然に導出できる。

 

Empirical evaluation on different baseline models, training datasets and benchmarks show that the proposed method can improve the face recognition performance of deterministic embeddings by converting them into PFEs.

訳:

さまざまなベースラインモデル,トレーニングデータセット,およびベンチマークに関する経験的評価により,提案された方法はPFEに変換することによって決定論的埋め込みの顔認識パフォーマンスを改善できることが示されている。

 

The uncertainties estimated by PFEs also serve as good indicators of the potential matching accuracy, which are important for a risk-controlled recognition system.

語彙:

indicators

訳:

PFEによって推定される不確実性は潜在的な照合精度の優れた指標としても機能する,これはリスク管理された認識システムにとって重要である。

 

2 Copy-and-Paste Networks for Deep Video Inpainting

f:id:ryosuke_okubo:20191019065251p:plain



原文:

Copy-and-Paste Networks for Deep Video Inpainting

 

Abstract:

We present a novel deep learning based algorithm for video inpainting.

語彙:

inpainting

訳:

ビデオ修復のための新しいディープラーニングベースのアルゴリズムを紹介する。

 

Video inpainting is a process of completing corrupted or missing regions in videos.

訳:

ビデオ修復はビデオ内の破損または欠落した領域を埋めるプロセスである。

 

Video inpainting has additional challenges compared to image inpainting due to the extra temporal information as well as the need for maintaining the temporal coherency.

訳:

ビデオ修復には余分な時間情報と時間的一貫性を維持する必要があるため,画像修復に比べて追加の課題がある。

 

We propose a novel DNN-based framework called the Copy-and-Paste Networks for video inpainting that takes advantage of additional information in other frames of the video.

訳:

我々はビデオの他のフレームの追加情報を利用するビデオ修復のためのCopy-and-Paste Networksと呼ばれる新しいDNNベースのフレームワークを提案する。

 

The network is trained to copy corresponding contents in reference frames and paste them to fill the holes in the target frame.

語彙:

corresponding

訳:

このネットワークは参照フレームの対応するコンテンツをコピーして貼り付け,ターゲットフレームの穴を埋めるように学習されている。

 

Our network also includes an alignment network that computes affine matrices between frames for the alignment, enabling the network to take information from more distant frames for robustness.

訳:

我々のネットワークにはアライメント用のフレーム間のアフィン行列を計算するアライメントネットワークも含まれており、ネットワークはより堅牢なフレームから情報を取得できる。

 

Our method produces visually pleasing and temporally coherent results while running faster than the state-of-the-art optimization-based method.

語彙:

pleasing

訳:

我々の方法は最先端の最適化ベースの方法よりも高速に実行しながら,視覚的に心地よく時間的に一貫した結果を生成する。

 

In addition, we extend our framework for enhancing over/under exposed frames in videos.

訳:

さらに,ビデオ内の露出のover/underを強化するためフレームワークを拡張する。

 

Using this enhancement technique, we were able to significantly improve the lane detection accuracy on road videos.

訳:

この強化技術を使用して,道路ビデオの車線検出精度を大幅に改善することができた。

 

3 Learning Meshes for Dense Visual SLAM

f:id:ryosuke_okubo:20191019065315p:plain

原文:

Learning Meshes for Dense Visual SLAM

 

Abstract:

Estimating motion and surrounding geometry of a moving camera remains a challenging inference problem.

語彙:

inference

訳:

移動中のカメラの動きと周囲の形状を推定することは依然として困難な推論問題である。

 

From an information theoretic point of view, estimates should get better as more information is included, such as is done in dense SLAM, but this is strongly dependent on the validity of the underlying models.

語彙:

estimates

underlying

訳:

情報理論の観点からは,dense SLAMで行われるように,より多くの情報が含まれるほど推定は良くなるはずだが,これは基礎となるモデルの妥当性に強く依存する。

 

In the present paper, we use triangular meshes as both compact and dense geometry representation.

語彙:

geometry

訳:

本論文では,コンパクトで高密度な幾何学表現として三角形メッシュを使用する。

 

To allow for simple and fast usage, we propose a view-based formulation for which we predict the in-plane vertex coordinates directly from images and then employ the remaining vertex depth components as free variables.

語彙:

coordinates

訳:

シンプルで高速な使用を可能にするために,我々は画像から直接面内の頂点座標を予測し,残りの頂点深度コンポーネントを自由変数として使用する,ビューベースの定式化を提案する。

 

Flexible and continuous integration of information is achieved through the use of a residual based inference technique.

語彙:

情報の柔軟で継続的な統合は残差ベースの推論手法を使用して実現される。

 

This so-called factor graph encodes all information as mapping from free variables to residuals, the squared sum of which is minimised during inference.

語彙:

so-called

factor graph

訳:

このいわゆる因子グラフはすべての情報を自由変数から残差へのマッピングとしてエンコードする,残差の2乗和は推論中に最小化される。

 

We propose the use of different types of learnable residuals, which are trained end-to-end to increase their suitability as information bearing models and to enable accurate and reliable estimation.

訳:

我々はさまざまなタイプの学習可能な残差の使用を提案する,これは情報を含むモデルとしての適合性を高め,正確で信頼できる推定を可能にするためにエンドツーエンドで学習される。

 

Detailed evaluation of all components is provided on both synthetic and real data which confirms the practicability of the presented approach.

語彙:

practicability

訳:

すべてのコンポーネントの詳細な評価は,提示されたアプローチの実行可能性を確認する合成データと実データの両方で提供される。

 

4 Learning Single Camera Depth Estimation using Dual-Pixels

f:id:ryosuke_okubo:20191019065338p:plain

原文:

Learning Single Camera Depth Estimation using Dual-Pixels

 

Abstract:

Deep learning techniques have enabled rapid progress in monocular depth estimation, but their quality is limited by the ill-posed nature of the problem and the scarcity of high quality datasets.

語彙:

monocular

scarcity

訳:

深層学習技術により単眼深度推定の急速な進歩が可能になったが,その品質は問題の不適切な性質と高品質のデータセットの不足により制限されている。

 

We estimate depth from a single camera by leveraging the dual-pixel auto-focus hardware that is increasingly common on modern camera sensors.

訳:

我々は最新のカメラセンサーでますます一般的になっているdual-pixel auto-focusハードウェアを活用して,1台のカメラから深度を推定する。

 

Classic stereo algorithms and prior learning-based depth estimation techniques underperform when applied on this dual-pixel data, the former due to too-strong assumptions about RGB image matching, and the latter due to not leveraging the understanding of optics of dual-pixel image formation.

語彙:

underperform

assumptions

訳:

従来のステレオアルゴリズムと従来の学習ベースの深度推定手法は,このデュアルピクセルデータに適用するとパフォーマンスが低下する,前者はRGB画像マッチングに関する非常に強い仮定によるものであり,後者はデュアルピクセル画像形成の光学の理解を活用しないためである。

 

To allow learning based methods to work well on dual-pixel imagery, we identify an inherent ambiguity in the depth estimated from dual-pixel cues, and develop an approach to estimate depth up to this ambiguity.

訳:

学習ベースの方法がデュアルピクセル画像でうまく機能するように,我々はデュアルピクセルの手がかりから推定される深さの固有のあいまいさを特定し,このあいまいさまでの深さを推定するアプローチを開発する。

 

Using our approach, existing monocular depth estimation techniques can be effectively applied to dual-pixel data, and much smaller models can be constructed that still infer high quality depth.

訳:

このアプローチを使用すると,既存の単眼深度推定技術をデュアルピクセルデータに効果的に適用でき,さらに高品質の深度を推測するはるかに小さなモデルを構築できる。

 

To demonstrate this, we capture a large dataset of in-the-wild 5-viewpoint RGB images paired with corresponding dual-pixel data, and show how view supervision with this data can be used to learn depth up to the unknown ambiguities.

訳:

これを示すために,我々は対応するデュアルピクセルデータとペアになった野生の5視点RGB画像の大規模なデータセットをキャプチャし,このデータを使用したビュー監視を使用して未知のあいまいさまでの深さを学習する方法を示す。

 

On our new task, our model is 30% more accurate than any prior work on learning-based monocular or stereoscopic depth estimation.

語彙:

stereoscopic

訳:

新しいタスクでは,学習ベースの単眼または立体深度推定に関する従来の作業よりもモデルの精度が30%高くなります。

 

5 YOLACT: Real-time Instance Segmentation

f:id:ryosuke_okubo:20191019065400p:plain

原文:

YOLACT: Real-time Instance Segmentation

 

Abstract:

We present a simple, fully-convolutional model for real-time instance segmentation that achieves 29.8 mAP on MS COCO at 33 fps evaluated on a single Titan Xp, which is significantly faster than any previous competitive approach.

訳:

我々は単一のTitan Xpで評価された33 fpsのMS COCOで29.8 mAPを達成するreal-time instance segmentationのシンプルで完全な畳み込みモデルを提示する,これは従来の競合アプローチよりも大幅に高速である。

 

Moreover, we obtain this result after training on only one GPU.

訳:

さらに,我々は1つのGPUのみで学習した後にこの結果を取得する。

 

We accomplish this by breaking instance segmentation into two parallel subtasks:

(1) generating a set of prototype masks

and (2) predicting per-instance mask coefficients.

語彙:

coefficients

訳:

これはインスタンスのセグメンテーションを2つの並列サブタスクに分割することで実現する:

 (1)プロトタイプマスクセットの生成

(2)インスタンスごとのマスク係数の予測。

 

Then we produce instance masks by linearly combining the prototypes with the mask coefficients.

訳:

次に,プロトタイプをマスク係数と線形結合することによりインスタンスマスクを作成する。

 

We find that because this process doesn't depend on repooling, this approach produces very high-quality masks and exhibits temporal stability for free.

語彙:

exhibits

訳:

このプロセスは再プーリングに依存しないため,このアプローチは非常に高品質のマスクを生成し,無料で一時的な安定性を示す。

 

Furthermore, we analyze the emergent behavior of our prototypes and show they learn to localize instances on their own in a translation variant manner, despite being fully-convolutional.

訳:

さらに,プロトタイプの緊急の動作を分析し,完​​全な畳み込みにもかかわらず,インスタンスが翻訳バリアントの方法で独自にローカライズすることを学習することを示す。

 

Finally, we also propose Fast NMS, a drop-in 12 ms faster replacement for standard NMS that only has a marginal performance penalty.

訳:
最後に,わずかなパフォーマンスペナルティしか持たない標準NMSのドロップイン12ミリ秒高速置換であるFast NMSも提案する。

論文Abstract100本ノック#7

前回↓

 

ryosuke-okubo.hatenablog.com

 

 

 

31~40は物体検出について扱う。

参考:

https://qiita.com/mshinoda88/items/9770ee671ea27f2c81a9

 

 

31 HOG(2005)

f:id:ryosuke_okubo:20190915180813p:plain

原文:

Histograms of oriented gradients for human detection

 

Abstract:

We study the question of feature sets for robust visual object recognition;

adopting linear SVM based human detection as a test case.

訳:

ロバストな視覚オブジェクト認識のための機能セットの問題を研究する;

事例として線形SVMベースの人間の検出を採用している。

 

After reviewing existing edge and gradient based descriptors, we show experimentally that grids of histograms of oriented gradient (HOG) descriptors significantly outperform existing feature sets for human detection.

訳:

既存のエッジと勾配ベースの記述子を確認した後,histograms of oriented gradient(HOG)記述子のグリッドが人間の検出において既存の特徴セットを大幅に上回ることを実験的に示す。

 

We study the influence of each stage of the computation on performance, concluding that fine-scale gradients, fine orientation binning, relatively coarse spatial binning, and high-quality local contrast normalization in overlapping descriptor blocks are all important for good results.

語彙:

influence on

fine-scale

binning

coarse

overlapping

訳:

計算の各段階がパフォーマンスに与える影響を調査して,結果として重複する記述子ブロックでの細かいスケールの勾配,細かい方向のビニング,比較的粗い空間ビニング,および高品質のローカルコントラスト正規化がすべて重要であると結論付ける。

 

The new approach gives near-perfect separation on the original MIT pedestrian database, so we introduce a more challenging dataset containing over 1800 annotated human images with a large range of pose variations and backgrounds.

語彙:

near-perfect

original

訳:

新しいアプローチでは元あるMIT歩行者データベースをほぼ完全に分離できるため,さまざまなポーズのバリエーションと背景を持つ1800以上の注釈がついた人間の画像を含むより難しいデータセットを導入する。

 

32 RCNN(2013)

f:id:ryosuke_okubo:20190915180841p:plain

原文:

Rich feature hierarchies for accurate object detection and semantic segmentation

 

Abstract:

Object detection performance, as measured on the canonical PASCAL VOC dataset, has plateaued in the last few years.

語彙:

canonical

plateaued

訳:

正規のPASCAL VOCデータセットで測定された物体検出性能は,ここ数年で横ばいになっている。

 

The best-performing methods are complex ensemble systems that typically combine multiple low-level image features with high-level context.

語彙:

best-performing

訳:

最適な方法は,複数の低レベルの画像機能と高レベルのコンテキストを組み合わせた複雑なアンサンブルシステムである。

 

In this paper, we propose a simple and scalable detection algorithm that improves mean average precision (mAP) by more than 30% relative to the previous best result on VOC 2012---achieving a mAP of 53.3%.

訳:

本論文では,VOC 2012の以前の最高結果と比較して平均平均精度(mAP)を30%以上向上させる(つまり53.3%のmAPを達成する)シンプルで拡張性のある検出アルゴリズムを提案する。

 

Our approach combines two key insights:

(1) one can apply high-capacity convolutional neural networks (CNNs) to bottom-up region proposals in order to localize and segment objects

and (2) when labeled training data is scarce, supervised pre-training for an auxiliary task, followed by domain-specific fine-tuning, yields a significant performance boost.

語彙:

high-capacity

proposals

scarce

pre-training

訳:

私たちのアプローチは2つの重要な洞察を組み合わせている:

(1)物体をローカライズおよびセグメント化するために大容量のCNNをボトムアップ領域の提案に適用できる

(2)ラベル付きトレーニングデータが不足している場合,補助タスクの教師付き事前学習に続いてドメイン固有の微調整を行うと,パフォーマンスが大幅に向上する

 

Since we combine region proposals with CNNs, we call our method R-CNN:

Regions with CNN features.

訳:

領域の提案をCNNと組み合わせるため,この手法をR-CNNと呼ぶ(Regions with CNN features)。

 

We also compare R-CNN to OverFeat, a recently proposed sliding-window detector based on a similar CNN architecture.

訳:

またR-CNNと,同様のCNNアーキテクチャに基づいて最近提案されたsliding-window検出器であるOverFeatを比較する。

 

We find that R-CNN outperforms OverFeat by a large margin on the 200-class ILSVRC2013 detection dataset.

訳:

R-CNNは200クラスのILSVRC2013 detection datasetでOverFeatよりも大幅に優れていることがわかる。

 

Source code for the complete system is available at http://www.rossgirshick.info/ .

訳:

完全なシステムのソースコードはhttp://www.rossgirshick.info/で入手できる。

 

33 SPP-net(2014)

f:id:ryosuke_okubo:20190915180905p:plain

原文:

Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition

 

Abstract:

Existing deep convolutional neural networks (CNNs) require a fixed-size (e.g., 224x224) input image.

訳:

既存のCNNには固定サイズ(たとえば、224x224)の入力画像が必要である。

 

This requirement is "artificial" and may reduce the recognition accuracy for the images or sub-images of an arbitrary size/scale.

語彙:

artificial

sub-images

arbitrary

訳:

この要件は「人工的」であり任意のサイズ/スケールの画像または部分画像の認識精度を低下させる可能性がある。

 

In this work, we equip the networks with another pooling strategy, "spatial pyramid pooling", to eliminate the above requirement.

語彙:

equip

訳:

ここでは,上記の要件を排除するために,ネットワークに別のプーリング戦略である「spatial pyramid pooling」を使用する。

 

The new network structure, called SPP-net, can generate a fixed-length representation regardless of image size/scale.

語彙:

regardless

訳:

SPP-netと呼ばれる新しいネットワーク構造は,画像のサイズ/スケールに関係なく固定長の表現を生成できる。

 

Pyramid pooling is also robust to object deformations.

訳:

Pyramid poolingはオブジェクトの変形に対してもロバストである。

 

With these advantages, SPP-net should in general improve all CNN-based image classification methods.

訳:

これらの利点により,SPP-netは一般にすべてのCNNベースの画像分類方法を改善するであろう。

 

On the ImageNet 2012 dataset, we demonstrate that SPP-net boosts the accuracy of a variety of CNN architectures despite their different designs.

語彙:

despite

訳:

ImageNet 2012データセットでは,SPP-netが異なる設計にもかかわらずさまざまなCNNアーキテクチャの精度を高めることを実証している。

 

On the Pascal VOC 2007 and Caltech101 datasets, SPP-net achieves state-of-the-art classification results using a single full-image representation and no fine-tuning.

訳:

Pascal VOC 2007およびCaltech101データセットでは,SPP-netは単一のフルイメージ表現を使用して微調整なしで最先端の分類結果を達成する。

 

The power of SPP-net is also significant in object detection.

訳:

SPP-netの能力は物体検出においても重要である。

 

Using SPP-net, we compute the feature maps from the entire image only once, and then pool features in arbitrary regions (sub-images) to generate fixed-length representations for training the detectors.

語彙:

entire

pool

訳:

SPP-netを使用して,画像全体から特徴マップを1回だけ計算し,任意の領域(部分画像)に特徴をプールして検出器を学習するための固定長表現を生成する。

 

This method avoids repeatedly computing the convolutional features.

語彙:

avoids

訳:

この方法により畳み込み特徴を繰り返し計算する必要がなくなる。

 

In processing test images, our method is 24-102x faster than the R-CNN method, while achieving better or comparable accuracy on Pascal VOC 2007.

訳:

テスト画像の処理では,Pascal VOC 2007でより優れたまたは同等の精度を達成しながらも,R-CNN方式より24〜102倍高速である。

 

In ImageNet Large Scale Visual Recognition Challenge (ILSVRC) 2014, our methods rank #2 in object detection and #3 in image classification among all 38 teams.

訳:

ILSVRC 2014では,38のチームすべてで物体検出で2位,画像分類で3位にランク付けされている。

 

This manuscript also introduces the improvement made for this competition.

語彙:

manuscript

訳:

本稿ではこのコンペティションのためになされた改善も紹介する。

 

34 Fast R-CNN(2015)

f:id:ryosuke_okubo:20190915180935p:plain

原文:

Fast R-CNN

 

Abstract:

This paper proposes a Fast Region-based Convolutional Network method (Fast R-CNN) for object detection.

訳:

本論文では物体検出のためのFast Region-based Convolutional Network method(Fast R-CNN)を提案する。

 

Fast R-CNN builds on previous work to efficiently classify object proposals using deep convolutional networks.

語彙:

previous work

訳:

Fast R-CNNは先行研究に基づいて構築されており,CNNを使用して物体提案を効率的に分類する。

 

Compared to previous work, Fast R-CNN employs several innovations to improve training and testing speed while also increasing detection accuracy.

訳:

先行研究と比較して,Fast R-CNNはいくつかのイノベーションを採用して,学習とテストの速度を向上させ検出精度も向上させている。

 

Fast R-CNN trains the very deep VGG16 network 9x faster than R-CNN, is 213x faster at test-time, and achieves a higher mAP on PASCAL VOC 2012.

訳:

Fast R-CNNは非常に深いVGG16ネットワークをR-CNNよりも9倍高速に学習し,テスト時の213倍の速度で,PASCAL VOC 2012でより高いmAPを実現する。

 

Compared to SPPnet, Fast R-CNN trains VGG16 3x faster, tests 10x faster, and is more accurate.

訳:

SPPnetと比較して,Fast R-CNNはVGG16を3倍高速に学習し,10倍高速にテストし、より正確である。

 

Fast R-CNN is implemented in Python and C++ (using Caffe) and is available under the open-source MIT License at https://github.com/rbgirshick/fast-rcnn.

訳:

Fast R-CNNはPythonとC ++(Caffeを使用)で実装され,https://github.com/rbgirshick/fast-rcnnオープンソースMITライセンスの下で利用可能である。

 

35 Faster R-CNN(2015)

f:id:ryosuke_okubo:20190915181001p:plain

原文:

Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

 

Abstract:

State-of-the-art object detection networks depend on region proposal algorithms to hypothesize object locations.

語彙:

hypothesize

訳:

最先端の物体検出ネットワークは物体の位置を仮説化するための領域提案アルゴリズムに依存している。

 

Advances like SPPnet and Fast R-CNN have reduced the running time of these detection networks, exposing region proposal computation as a bottleneck.

訳:

SPPnetやFast R-CNNなどの進歩によりこれらの検出ネットワークの実行時間が短縮され,領域提案の計算がボトルネックになっている。

 

In this work, we introduce a Region Proposal Network (RPN) that shares full-image convolutional features with the detection network, thus enabling nearly cost-free region proposals.

語彙:

cost-free

訳:

ここでは,全画像の畳み込み機能を検出ネットワークと共有するRegion Proposal Network(RPN)を導入し,ほぼ無償での領域提案を可能にする。

 

An RPN is a fully convolutional network that simultaneously predicts object bounds and objectness scores at each position.

語彙:

simultaneously

訳:

RPNは各位置でオブジェクトの境界とオブジェクトのスコアを同時に予測する全畳み込みネットワークである。

 

The RPN is trained end-to-end to generate high-quality region proposals, which are used by Fast R-CNN for detection.

訳:

RPNはFast R-CNNが検出に使用する高品質の領域提案を生成するためにエンドツーエンドで学習される。

 

We further merge RPN and Fast R-CNN into a single network by sharing their convolutional features---using the recently popular terminology of neural networks with 'attention' mechanisms, the RPN component tells the unified network where to look.

語彙:

merge

terminology

unified

訳:

さらに畳み込み機能を共有することでRPNとFast R-CNNを単一のネットワークにマージした,最近注目されているニューラルネットワークの用語である「attention」メカニズムを使用して,RPNコンポーネントは統一されたネットワークにどこを見ればよいかを伝える。

 

For the very deep VGG-16 model, our detection system has a frame rate of 5fps (including all steps) on a GPU, while achieving state-of-the-art object detection accuracy on PASCAL VOC 2007, 2012, and MS COCO datasets with only 300 proposals per image.

訳:

非常に深いVGG-16モデルの場合,検出システムはGPUで5fps(すべてのステップを含む)のフレームレートを持ち,PASCAL VOC 2007,2012およびMS COCOデータセットで画像ごとに300件の提案だけのとき最先端のオブジェクト検出精度を達成する。

 

In ILSVRC and COCO 2015 competitions, Faster R-CNN and RPN are the foundations of the 1st-place winning entries in several tracks. 

語彙:

foundations

訳:

ILSVRCとCOCO 2015のコンペティションでは,Faster R-CNNとRPNが複数のトラックで1位に入賞してエントリーの基盤となっている。 

 

Code has been made publicly available.

訳:

コードは一般に公開されている。

 

次回↓

 

ryosuke-okubo.hatenablog.com

 

金匱要略と現代漢方との比較 #0 目次

金匱要略と現代漢方との比較」についての目次。

 

 

#1 本記事の流れ,第1章 臟腑經絡先後病脈證

 

ryosuke-okubo.hatenablog.com

 

基本理論について(詳しくは傷寒論の解説へ)

 

#2 第2章 痓濕暍病脈證治

 

ryosuke-okubo.hatenablog.com

 

  • 葛根湯
  • 大承気湯
  • 麻杏薏甘湯
  • 防已黄耆湯
  • 白朮附子湯
  • 甘草附子湯
  • 白虎加人参湯

 

#3 第3章 百合狐惑陰陽毒病脈證治,第4章 瘧病脈證并治,第5章 中風歷節病脈證并治

 

ryosuke-okubo.hatenablog.com

 

  • 甘草瀉心湯
  • 苦参湯
  • 白虎加桂枝湯
  • 桂枝芍薬知母湯
  • 続命湯
  • 八味地黄丸
  • 越婢加朮湯

 

#4 第6章 血痹虛勞病脈證并治,第7章 肺痿肺癰欬嗽上氣病脈證治

 

ryosuke-okubo.hatenablog.com

 

  • 桂枝加竜骨牡蛎
  • 小建中湯
  • 黄耆建中湯
  • 八味地黄丸(第5章解説済み)
  • 酸棗仁湯
  • 炙甘草湯
  • 甘草乾姜湯
  • 麦門冬湯
  • 桔梗湯
  • 青竜湯加石膏
  • 甘草湯

 

#5 第8章 奔肫氣病脈證治,第9章 胸痺心痛短氣病脈證治,第10章 腹滿寒疝宿食病脈證治

 

ryosuke-okubo.hatenablog.com

 

  • 奔豚湯(金匱要略)
  • 苓桂甘棗湯
  • 人参湯(理中丸)
  • 茯苓杏仁甘草湯
  • 附子粳米湯
  • 大柴胡湯
  • 大承気湯(第2章で解説済)
  • 大建中湯
  • 大黄附子湯
  • 柴胡桂枝湯

 

#6 第11章 五臟風寒積聚病脈證并治,第12章 痰飲欬嗽病脈證并治

 

ryosuke-okubo.hatenablog.com

 

  • 麻子仁丸
  • 苓姜朮甘湯
  • 苓桂朮甘湯
  • 八味地黄丸(第5章解説済み)
  • 青竜
  • 木防已湯
  • 沢瀉湯
  • 小半夏加茯苓湯
  • 五苓散
  • 茯苓飲
  • 苓桂味甘湯
  • 苓甘姜味辛夏仁湯

 

#7 第13章 消渴小便利淋病脈證并治,第14章 水氣病脈證并治,第15章 黃疸病脈證并治,第16章 驚悸吐衄下血胸滿瘀血病脈證治

 

ryosuke-okubo.hatenablog.com

 

  • 八味丸(第5章解説済み)
  • 五苓散(第12章解説済み)
  • 白虎加人参湯(第2章解説済み)
  • 猪苓湯
  • 防已黄耆湯(第2章解説済み)
  • 防已茯苓湯
  • 越婢加朮湯(第5章解説済み)
  • 桂枝加黄耆湯
  • 桂姜棗草黄辛附湯
  • 茵蔯蒿湯
  • 桂枝加黄耆湯(第14章解説済み)
  • 茵蔯五苓散
  • 小柴胡湯(第17章にて考察)
  • 小建中湯(第6章解説済み)

 

#8 第17章 嘔吐噦下利病脈證治,第18章 瘡癰腸癰浸淫病脈證并治,第19章 趺蹶手指臂腫轉筋陰狐疝蚘蟲病證治

 

ryosuke-okubo.hatenablog.com

 

  • 茱萸
  • 半夏瀉心湯
  • 四逆湯
  • 小柴胡湯
  • 大半夏湯
  • 大黄甘草湯
  • 茯苓沢瀉湯
  • 四逆湯(第17章嘔吐,噦解説済み)
  • 桂枝湯
  • 大承気湯(第2章解説済み)
  • 小承気湯
  • 薏苡附子敗醤散
  • 大黄牡丹皮湯
  • 排膿散
  • 排膿湯

 

#9 第20章 婦人妊娠病脈證并治,第21章 婦人產後病脈證治,第22章 婦人雜病脈證并治

 

ryosuke-okubo.hatenablog.com

 

  • 桂枝茯苓丸
  • 芎帰膠艾湯
  • 当帰芍薬
  • 乾姜人参半夏丸
  • 当帰散
  • 小柴胡湯(第17章解説済み)
  • 大承気湯(第2章解説済み)
  • 桂枝湯(第17章解説済み)
  • 小柴胡湯(第17章解説済み)
  • 三物黄芩湯
  • 当帰建中湯
  • 小柴胡湯(第17章解説済み)
  • 半夏厚朴湯
  • 甘麦大棗湯
  • 青竜(第12章解説済み)
  • 温経湯
  • 当帰芍薬(第20章解説済み)
  • 小建中湯(第6章解説済み)
  • 八味地黄丸(第5章解説済み)

論文Abstract100本ノック#6

前回↓

 

ryosuke-okubo.hatenablog.com

 

 

 

26 CycleGAN(2017)

f:id:ryosuke_okubo:20190912142058p:plain

原文:

Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

 

Abstract

Image-to-image translation is a class of vision and graphics problems where the goal is to learn the mapping between an input image and an output image using a training set of aligned image pairs.

語彙:

aligned

訳:

画像から画像への変換は,位置合わせされた画像ペアのトレーニングセットを使用して入力画像と出力画像間のマッピングを学習することを目的とする,視覚およびグラフィックの問題のクラスである。

 

However, for many tasks, paired training data will not be available.

訳:

ただし,多くのタスクでは,ペアのトレーニングデータは利用できない。

 

We present an approach for learning to translate an image from a source domain X to a target domain Y in the absence of paired examples.

訳:

ペアの例がない場合にソースドメインXからターゲットドメインYに画像を変換する学習方法を示す。

 

Our goal is to learn a mapping G:X→Y such that the distribution of images from G(X) is indistinguishable from the distribution Y using an adversarial loss.

語彙:

mapping

indistinguishable

訳:

G(X)からの画像の分布が敵対的損失を使用して分布Yと区別できないように写像G:X→Yを学習することを目標とする。

 

Because this mapping is highly under-constrained, we couple it with an inverse mapping F:Y→X and introduce a cycle consistency loss to push F(G(X))≈X (and vice versa).

語彙:

under-constrained

and vice versa

訳:

この写像は非常に制約が厳しいため,逆写像F:Y→Xと組み合わせF(G(X))≈X(およびその逆も)をプッシュするためのcycle consistency lossを導入する。

 

Qualitative results are presented on several tasks where paired training data does not exist, including collection style transfer, object transfiguration, season transfer, photo enhancement, etc.

訳:

画風の変換,オブジェクト変換,季節の変換,写真の強調など,ペアのトレーニングデータが存在しないいくつかのタスクで定性的な結果が表示される。

 

Quantitative comparisons against several prior methods demonstrate the superiority of our approach.

訳:

いくつかの従来の方法との定量的比較は,当社のアプローチの優位性を示している。

 

27 StarGAN(2017)

f:id:ryosuke_okubo:20190912142123p:plain

原文:

StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation

 

Abstract

Recent studies have shown remarkable success in image-to-image translation for two domains.

訳:

最近の研究はで2つのドメインによる画像から画像への変換で顕著な成功を示している。

 

However, existing approaches have limited scalability and robustness in handling more than two domains, since different models should be built independently for every pair of image domains.

語彙:

existing

訳:

ただし,既存のアプローチでは3つ以上のドメインを処理する際のスケーラビリティとロバストネスが制限されている,これは画像ドメインのペアごとに異なるモデルを個別に構築する必要があるためである。

 

To address this limitation, we propose StarGAN, a novel and scalable approach that can perform image-to-image translations for multiple domains using only a single model.

訳:

この制限に対処するために,単一のモデルのみを使用して複数のドメインの画像から画像への変換を実行できる,新規でスケーラブルなアプローチであるStarGANを提案する。

 

Such a unified model architecture of StarGAN allows simultaneous training of multiple datasets with different domains within a single network.

訳:

このようなStarGANの統合モデルアーキテクチャにより単一のネットワーク内で異なるドメインを持つ複数のデータセットを同時に学習できる。

 

This leads to StarGAN's superior quality of translated images compared to existing models as well as the novel capability of flexibly translating an input image to any desired target domain.

訳:

これにより既存のモデルと比較してStarGANの画像変換の品質が向上するだけでなく,入力画像を任意のターゲットドメインに柔軟に変換する新しい機能が実現する。

 

We empirically demonstrate the effectiveness of our approach on a facial attribute transfer and a facial expression synthesis tasks.

語彙:

attribute

訳:

顔の属性の変換と表情の合成タスクに対するアプローチの有効性を経験的に示している。

 

28 StackGAN(2016)

f:id:ryosuke_okubo:20190912142148p:plain

原文:

StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks

 

Abstract

Synthesizing high-quality images from text descriptions is a challenging problem in computer vision and has many practical applications.

語彙:

descriptions

訳:

テキスト記述から高品質の画像を合成することはコンピュータービジョンにおいて困難な問題であり,多くの実用的な用途がある。

 

Samples generated by existing text-to-image approaches can roughly reflect the meaning of the given descriptions, but they fail to contain necessary details and vivid object parts.

語彙:

fail to

訳:

既存のテキストからイメージへのアプローチによって生成されたサンプルは与えられた説明の意味を大まかに反映することができるが,必要な詳細と鮮明なオブジェクト部分を含んでいない。

 

In this paper, we propose Stacked Generative Adversarial Networks (StackGAN) to generate 256x256 photo-realistic images conditioned on text descriptions.

訳:

本論文では,テキスト記述を条件とする256x256のリアルな画像を生成するStacked Generative Adversarial Networks(StackGAN)を提案する。

 

We decompose the hard problem into more manageable sub-problems through a sketch-refinement process.

語彙:

decompose ~ into -

訳:

sketch-refinementプロセスを通じて困難な問題をより管理しやすいサブ問題に分解する。

 

The Stage-I GAN sketches the primitive shape and colors of the object based on the given text description, yielding Stage-I low-resolution images.

語彙:

primitive

yielding

訳:

Stage-I GANは指定されたテキスト記述に基づいてオブジェクトのプリミティブな形状と色をスケッチし,Stage-I低解像度画像を生成する。

 

The Stage-II GAN takes Stage-I results and text descriptions as inputs, and generates high-resolution images with photo-realistic details.

訳:

Stage-II GANはStage-Iの結果とテキストの説明を入力として受け取り,リアルな詳細を持つ高解像度の画像を生成する。

 

It is able to rectify defects in Stage-I results and add compelling details with the refinement process.

語彙:

rectify

訳:

それによりStage-Iの結果の欠陥を修正し洗練されたプロセスで説得力のある詳細を追加できる。

 

To improve the diversity of the synthesized images and stabilize the training of the conditional-GAN, we introduce a novel Conditioning Augmentation technique that encourages smoothness in the latent conditioning manifold.

語彙:

stabilize

Conditioning Augmentation

manifold

訳:

合成画像の多様性を改善しcGANの学習を安定させるために,潜在的なコンディショニング多様体の滑らかさを促進する新しいConditioning Augmentation技術を導入する。

 

Extensive experiments and comparisons with state-of-the-arts on benchmark datasets demonstrate that the proposed method achieves significant improvements on generating photo-realistic images conditioned on text descriptions.

訳:

大規模な実験とベンチマークデータセットの最新技術との比較により,提案された方法がテキスト記述を条件とするリアルな画像の生成で大幅な改善を達成することが実証されている。

 

29 AnoGAN(2017)

f:id:ryosuke_okubo:20190912142214p:plain

原文:

Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery

 

Abstract

Obtaining models that capture imaging markers relevant for disease progression and treatment monitoring is challenging.

語彙:

relevant

訳:

疾患の進行と治療のモニタリングに関連するイメージングマーカーをキャプチャするモデルを取得することは困難である。

 

Models are typically based on large amounts of data with annotated examples of known markers aiming at automating detection.

語彙:

large amounts of

annotated

aiming at

訳:

通常,モデルは検出の自動化を目的とした既知のマーカーの注釈付きサンプルを含む大量のデータに基づいている。

 

High annotation effort and the limitation to a vocabulary of known markers limit the power of such approaches.

語彙:

effort

訳:

高度な注釈作業と既知マーカーの語彙の制限によりこのようなアプローチの効果が制限される。

 

Here, we perform unsupervised learning to identify anomalies in imaging data as candidates for markers.

語彙:

anomalies

訳:

ここでは,マーカー候補として画像データの異常を特定するために教師なし学習を実行する。

 

We propose AnoGAN, a deep convolutional generative adversarial network to learn a manifold of normal anatomical variability, accompanying a novel anomaly scoring scheme based on the mapping from image space to a latent space.

訳:

anatomical

訳:

AnoGANは通常の解剖学的変動の多様性を学習するためのDCGANであり,画像空間から潜在空間へのマッピングに基づく新しい異常スコアスキームを伴う。

 

Applied to new data, the model labels anomalies, and scores image patches indicating their fit into the learned distribution.

語彙:

indicating

訳:

このモデルは,新しいデータに適用されると,異常にラベルを付け,学習した分布に適合することを示す画像パッチにスコア付けをする。

 

Results on optical coherence tomography images of the retina demonstrate that the approach correctly identifies anomalous images, such as images containing retinal fluid or hyperreflective foci.

語彙:

optical coherence tomography

retina

訳:

網膜の光干渉断層撮影画像の結果は,このアプローチが網膜液またはhyperreflective fociを含む画像などの異常画像を正しく識別することを示している。

 

30 3DGAN(2016)

f:id:ryosuke_okubo:20190912142238p:plain

原文:

Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling

 

Abstract

We study the problem of 3D object generation.

訳:

3Dオブジェクト生成の問題を研究する。

 

We propose a novel framework, namely 3D Generative Adversarial Network (3D-GAN), which generates 3D objects from a probabilistic space by leveraging recent advances in volumetric convolutional networks and generative adversarial nets.

訳:

新しいフレームワークとして3D-GANを提案する,これは3次元の畳み込みネットワークとGANの最近の進歩を活用して,確率空間から3Dオブジェクトを生成する。

 

The benefits of our model are three-fold:

first, the use of an adversarial criterion, instead of traditional heuristic criteria, enables the generator to capture object structure implicitly and to synthesize high-quality 3D objects;

second, the generator establishes a mapping from a low-dimensional probabilistic space to the space of 3D objects, so that we can sample objects without a reference image or CAD models, and explore the 3D object manifold;

third, the adversarial discriminator provides a powerful 3D shape descriptor which, learned without supervision, has wide applications in 3D object recognition.

語彙:

criterion

implicitly

establishes

訳:

このモデルの利点は3つある:

まず,従来のヒューリスティックな基準の代わりに敵対的な基準を使用すると,generatorがオブジェクト構造を暗黙的に捉えて高品質の3Dオブジェクトを合成できる;

次に,generatorは低次元の確率空間から3Dオブジェクトの空間へのマッピングを確立することで,参照画像やCADモデルなしでオブジェクトをサンプリングし3Dオブジェクト多様体を探索できる;

第三に,discriminatorは教師なし学習をした強力な3D形状記述子を提供するため,3Dオブジェクト認識に幅広い用途が生じる。

 

Experiments demonstrate that our method generates high-quality 3D objects, and our unsupervisedly learned features achieve impressive performance on 3D object recognition, comparable with those of supervised learning methods.

訳:

実験によりこの方法によって高品質の3Dオブジェクトを生成することが実証された,および教師なし学習機能により3Dオブジェクト認識で優れたパフォーマンスを実現する,これは教師あり学習方法のパフォーマンスに匹敵する。

 

次回↓

 

ryosuke-okubo.hatenablog.com

 

傷寒論と現代漢方との比較 #0 目次

傷寒論と現代漢方との比較」という記事にて様々な処方を紹介したので,本記事で一覧できるようにする(個人的なメモ)。

 

 

 

#1 本記事の流れ,基礎知識

 

ryosuke-okubo.hatenablog.com

 

基礎知識についての紹介。

 

#2 太陽病上

 

ryosuke-okubo.hatenablog.com

 

  • 桂枝湯
  • 桂枝加葛根湯
  • 桂麻各半湯
  • 白虎加人参湯
  • 桂枝二越婢一湯

 

#3 太陽病中(前半)

 

ryosuke-okubo.hatenablog.com

 

  • 葛根湯
  • 葛根黄連黄芩湯
  • 麻黄湯
  • 青竜
  • 桂枝加厚朴杏仁湯
  • 桂枝加芍薬生姜人参湯
  • 麻杏甘石湯
  • 苓桂甘棗湯
  • 厚朴生姜半夏人参甘草湯
  • 苓桂朮甘湯
  • 芍薬甘草附子湯
  • 調胃承気湯
  • 茯苓四逆湯

 

#4 太陽病中(後半)

 

ryosuke-okubo.hatenablog.com

 

 

#5 太陽病下

 

ryosuke-okubo.hatenablog.com

 

  • 小柴胡湯(太陽病中99)
  • 柴胡桂枝湯
  • 柴胡桂枝乾姜湯
  • 半夏瀉心湯
  • 生姜瀉心湯
  • 甘草瀉心湯
  • 桂枝人参湯
  • 大柴胡湯(太陽病中108)
  • 白虎加人参湯(太陽病上26)
  • 黄芩湯
  • 黄連湯
  • 甘草附子湯
  • 白虎湯
  • 炙甘草湯

 

#6 陽明病,少陽病

 

ryosuke-okubo.hatenablog.com

 

  • 調胃承気湯(太陽病中70)
  • 大承気湯
  • 小承気湯
  • 白虎湯(太陽病下183)
  • 白虎加人参湯(太陽病上26)
  • 猪苓湯
  • 小柴胡湯(太陽病中99)
  • 桂枝湯(太陽病上12)
  • 麻黄湯(太陽病中35)
  • 茵蔯蒿湯
  • 麻子仁丸
  • 梔子柏皮湯
  • 小柴胡湯(太陽病中99)

 

#7 太陰病,少陰病,厥陰病

 

ryosuke-okubo.hatenablog.com

 

  • 桂枝加芍薬
  • 桂枝加芍薬大黄湯
  • 麻黄附子細辛湯
  • 黄連阿膠湯
  • 甘草湯
  • 桔梗湯
  • 半夏散及湯
  • 真武湯
  • 四逆散
  • 大承気湯(陽明病216)
  • 白虎湯(太陽病183)
  • 当帰四逆湯
  • 当帰四逆加呉茱萸生姜湯
  • 四逆湯
  • 小承気湯(陽明病216)
  • 梔子豉湯(太陽病中79)
  • 茱萸

 

#8 霍乱病,差後労復病,一般用漢方製剤でない処方の例

 

ryosuke-okubo.hatenablog.com

 

  • 五苓散(太陽病中72)
  • 人参湯(理中丸)
  • 桂枝湯(太陽病15)
  • 四逆湯(厥陰病363)
  • 四逆加人参湯
  • 竹葉石膏湯
  • 大青龍湯
  • 桂枝加桂湯
  • 抵当湯
  • 大陥胸湯
  • 瓜蔕散
  • 蜜煎
  • 猪胆汁
  • 桃花湯
  • 苦酒湯
  • 烏梅圓

 

論文Abstract100本ノック#5

前回↓

 

ryosuke-okubo.hatenablog.com

 

 

 

21 ConditionalGAN(2014)

f:id:ryosuke_okubo:20190910100935p:plain

原文:

Conditional Generative Adversarial Nets

 

Abstract

Generative Adversarial Nets [8] were recently introduced as a novel way to train generative models.

訳:

GAN[8]は生成モデルを学習するための新しい方法として最近導入された。

 

In this work we introduce the conditional version of generative adversarial nets, which can be constructed by simply feeding the data, y, we wish to condition on to both the generator and discriminator.

語彙:

feeding

訳:

ここではGANの条件付きバージョンを紹介する,これはデータyを与えるだけで作成でき,generatorとdiscriminatorの両方に条件付ける。

 

We show that this model can generate MNIST digits conditioned on class labels.

語彙:

digits

訳:

このモデルがクラスラベルを条件してMNISTから数字の画像を生成できることを示す。

 

We also illustrate how this model could be used to learn a multi-modal model, and provide preliminary examples of an application to image tagging in which we demonstrate how this approach can generate descriptive tags which are not part of training labels.

語彙:

illustrate

preliminary

訳:

またこのモデルを使用してマルチモーダルモデルを学習する方法を示し,この方法で学習ラベルの一部ではない記述タグを生成する方法を示す画像タグ付けへのアプリケーションの予備例を提供する。

 

22 InfoGAN(2016)

題名:

InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets

 

Abstract

This paper describes InfoGAN, an information-theoretic extension to the Generative Adversarial Network that is able to learn disentangled representations in a completely unsupervised manner.

語彙:

information-theoretic

disentangled

訳:

本論文では,完全に教師なしの方法で解きほぐされた表現を学習できる,GANの情報理論拡張機能であるInfoGANについて説明する。

 

InfoGAN is a generative adversarial network that also maximizes the mutual information between a small subset of the latent variables and the observation.

語彙:

mutual information

latent variables

observation

訳:

InfoGANは潜在変数の小さなサブセットと観測値間の相互情報量を最大化するGANである。

 

We derive a lower bound to the mutual information objective that can be optimized efficiently, and show that our training procedure can be interpreted as a variation of the Wake-Sleep algorithm.

語彙:

lower bound

objective

Wake-Sleep algorithm

訳:

効率的に最適化できる相互情報量の下限を導き出し,学習手順がWake-Sleepアルゴリズムのバリエーションとして解釈できることを示す。

 

Specifically, InfoGAN successfully disentangles writing styles from digit shapes on the MNIST dataset, pose from lighting of 3D rendered images, and background digits from the central digit on the SVHN dataset.

訳:

具体的には,InfoGANでMNISTデータセットの数字画像,3Dレンダリング画像の照明を当てた時のの姿,およびSVHNデータセットの中央数字からの背景数字の書き込みを解く。

 

It also discovers visual concepts that include hair styles, presence/absence of eyeglasses, and emotions on the CelebA face dataset.

語彙:

concepts

訳:

また,ヘアスタイル,眼鏡の有無,CelebA faceデータセットの感情などの視覚的な概念も見出す。

 

Experiments show that InfoGAN learns interpretable representations that are competitive with representations learned by existing fully supervised methods.

訳:

実験によりInfoGANは既存の完全に教師ありの方法で学習した表現と競合する解釈可能な表現を学習することが示されている。

 

23 pix2pix(2016)

f:id:ryosuke_okubo:20190910100959p:plain

原文:

Image-to-Image Translation with Conditional Adversarial Networks

 

Abstract

We investigate conditional adversarial networks as a general-purpose solution to image-to-image translation problems.

語彙:

general-purpose

訳:

画像から画像への変換の問題に対する汎用的な解決法として,cGANを調査する。

 

These networks not only learn the mapping from input image to output image, but also learn a loss function to train this mapping.

訳:

これらのネットワークは入力画像から出力画像へのマッピングを学習するだけでなく,このマッピングを学習するための損失関数も学習する。

 

This makes it possible to apply the same generic approach to problems that traditionally would require very different loss formulations.

訳:

これにより従来の非常に異なる損失関数の定式化を必要とする問題に同じ一般的なアプローチを適用することが可能になる。

 

We demonstrate that this approach is effective at synthesizing photos from label maps, reconstructing objects from edge maps, and colorizing images, among other tasks.

訳:

このアプローチがラベルマップからの写真の合成,エッジマップからのオブジェクトの再構築,画像の色付けなどのタスクで効果的であることを示す。

 

Indeed, since the release of the pix2pix software associated with this paper, a large number of internet users (many of them artists) have posted their own experiments with our system, further demonstrating its wide applicability and ease of adoption without the need for parameter tweaking.

語彙:

Indeed

tweaking

訳:

実際,この論文に関連するpix2pixソフトウェアのリリース以来,多数のインターネットユーザー(多くはアーティスト)が彼らのシステムで独自の実験を投稿し,パラメーターの調整を必要とせずに幅広い適用性と採用の容易さをさらに実証している。

 

As a community, we no longer hand-engineer our mapping functions, and this work suggests we can achieve reasonable results without hand-engineering our loss functions either.

語彙:

no longer

hand-engineer

訳:

コミュニティとして,私たちはもはやマッピング機能を手動で設計することはない,損失関数を手動で設計しなくても合理的な結果を達成できることを示唆している。

 

24 pix2pixHD(2017)

f:id:ryosuke_okubo:20190910101020p:plain

原文:

High-Resolution Image Synthesis and Semantic Manipulation with Conditional GANs

 

Abstract

We present a new method for synthesizing high-resolution photo-realistic images from semantic label maps using conditional generative adversarial networks (conditional GANs).

語彙:

photo-realistic

semantic

訳:

cGANを使用してセマンティックラベルマップから高解像度の写真のようにリアルな画像を合成するための新しい方法を示す。

 

Conditional GANs have enabled a variety of applications, but the results are often limited to low-resolution and still far from realistic.

語彙:

still far from

訳:

cGANによりさまざまなアプリケーションが使用可能になったが,結果はしばしば低解像度に制限され依然として現実的ではない。

 

In this work, we generate 2048x1024 visually appealing results with a novel adversarial loss, as well as new multi-scale generator and discriminator architectures.

語彙:

appealing

訳:

ここでは,新しいマルチスケールgeneratorとdiscriminatorアーキテクチャだけでなく,新しいadversarial lossを伴う視覚に訴える結果を2048x1024で生成する。

 

Furthermore, we extend our framework to interactive visual manipulation with two additional features.

語彙:

manipulation

訳:

さらに,2つの追加機能でフレームワークインタラクティブな視覚的操作に拡張する。

 

First, we incorporate object instance segmentation information, which enables object manipulations such as removing/adding objects and changing the object category.

語彙:

incorporate

訳:

まず,オブジェクトインスタンスのセグメンテーション情報を組み込む,これによりオブジェクトの削除/追加,オブジェクトカテゴリの変更などのオブジェクト操作が可能になる。

 

Second, we propose a method to generate diverse results given the same input, allowing users to edit the object appearance interactively.

語彙:

diverse

appearance

訳:

次に,同じ入力に対して多様な結果を生成し,ユーザーがオブジェクトの外観をインタラクティブに編集できるようにする方法を提案する。

 

Human opinion studies demonstrate that our method significantly outperforms existing methods, advancing both the quality and the resolution of deep image synthesis and editing.

訳:

人間を介した意見調査により我々の方法が既存の方法よりも著しく優れていることが示され、深層画像の合成と編集において品質と解像度の両方を向上させている。

 

25 LAPGAN(2015)

f:id:ryosuke_okubo:20190910101042p:plain

原文:

Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks

 

Abstract

In this paper we introduce a generative parametric model capable of producing high quality samples of natural images.

訳:

本論文では自然画像の高品質サンプルを生成できる生成パラメトリックモデルを紹介する。

 

Our approach uses a cascade of convolutional networks within a Laplacian pyramid framework to generate images in a coarse-to-fine fashion.

語彙:

coarse-to-fine

訳:

ラプラシアンピラミッドフレームワーク内の畳み込みネットワークのカスケードを使用して粗から密な方法で画像を生成する。

 

At each level of the pyramid, a separate generative convnet model is trained using the Generative Adversarial Nets (GAN) approach (Goodfellow et al.).

訳:

ピラミッドの各階層で,GANのアプローチ(Goodfellow et al.)を使用して個別の生成的変換モデルが学習される。

 

Samples drawn from our model are of significantly higher quality than alternate approaches.

語彙:

alternate

訳:

このモデルから抽出されたサンプルは他のアプローチよりも非常に高品質である。

 

In a quantitative assessment by human evaluators, our CIFAR10 samples were mistaken for real images around 40% of the time, compared to 10% for samples drawn from a GAN baseline model.

語彙:

mistaken

訳:

人間の評価による定量的評価では,GAN baseline modelから引き出されたサンプルの10%に対して,CIFAR10サンプルは約40%が実際の画像と間違えられた。

 

We also show samples from models trained on the higher resolution images of the LSUN scene dataset.

訳:

またLSUN scene datasetの高解像度画像で学習されたモデルのサンプルも示す。

 

次回↓

 

ryosuke-okubo.hatenablog.com

 

 

読書の思い出について(読書メーターの年間ランキングより)

 

本記事について 

本記事は私の読書の思い出について,読書メーターの年間ランキングより記録していく。読書メーターは読書コミュニティサイトで,読んだ本を記録するのに便利である。私は使い始めて7年目に入っているが,どんなものを読んできたかがわかるのって,やっぱりいいなーと思う。

 

今回は本当にどうでもいい話なので,気軽に見てもらえたらと思う。

 

2013年

f:id:ryosuke_okubo:20190907091942p:plain

読書メーター1年目。ランキング自体は2014年にその存在を知ったので,後から作成したものではある。

 

当時はライトノベルを中心に模索しており,その中でもいくつかいい作品に会うことができた。特に時雨沢恵一キノの旅―The beautiful world」は寓意に満ちた名作だと今でも思う。バカ全開の朽葉屋周太郎「おちゃらけ王」もよい。

 

恒川光太郎「夜市」は,著者のデビュー作ながら第12回日本ホラー小説大賞大賞受賞,第134回直木賞候補となった作品である。以下当時つけたレビュー。

これは再読(記録をつける前に読み終わった)だが、今でも初めて読み終わったときの衝撃を覚えている。「これって本当にホラー小説なのか?むしろファンタジーに近い」と。刺激的なホラーではなく、冷んやりとした畏怖を感じさせるホラーなのだろう。短編2作ともに、異世界へ迷い込んでしまうところから始まる。その世界には、その世界のルールがあり、それに従わなければならない。そして、その世界は美しい、、なんかこれを読んでいると風鈴の音が欲しくなる。

 

2014年

f:id:ryosuke_okubo:20190907092621p:plain

読書メーター2年目。スマホでの見た目がいいことを理由に,ランキングでは9作品に絞ろうと決めた。

 

主にライトノベルの境界線を探った年だと思う。野崎まど「know」米澤穂信氷菓西尾維新化物語など。単にジャンルにとらわれるのでなく,何が言いたいのか,という点が重要だと思う(ジャンルは型に過ぎない)。

 

ここで野崎まど「know」に対するレビューを。

生きたい。知りたい。人間とは、そういうものなんですよー近未来、情報化の進んだ世界。そんな中、知の極限に最も近い知ルは人類史上最難関の問題に挑む。といっても、それを巡る戦いは激しいものではなく、禅問答のようなもの。それでも知の気迫が伝わり、かつ展開がなかなか読めないために一日中読み続けていた。ーそれにしても、もし「知の極限」に辿り着いたらどうなるだろうか。いや、それはあり得ない。「知」だって時間の進行と共に拡張しているのだから。だから、人間はみんな知りたがり屋。

......今,改めて読み直すべきかもしれない。読み返して,同じことが言えるかどうか。

 

2015年

f:id:ryosuke_okubo:20190907093909p:plain

読書メーター3年目。

 

少しずつ純文学の割合を増やした年だと思う。今まで読んだ村上春樹作品のうち,好みにあったのはねじまき鳥クロニクル世界の終わりとハードボイルド・ワンダーランド。確かこの年で舞城王太郎を知る。煙か土か食い物は読んでいて面白いと素直に思える作品である。

 

この年1位の伊坂幸太郎「マリアビートル」のレビュー。 

傑作。新幹線の限られた空間が最大限に生かされている。更にキャラクターの入退場の仕方が巧み。最後は誰が勝つのかと気になっていて、その落とし所も上手いなあと思った。/「グラスホッパー」と併せてオススメしたい作品。

 

2016年

f:id:ryosuke_okubo:20190907094735p:plain

 4年目。

 

メインを海外文学へとシフトし始めた年。カミュ「ペスト」スタンダール赤と黒ヴォルテールカンディードなど,特に意識はしていなかったが仏文学が多めか。

 

この年の1位はかなり迷ったのを覚えている。宮沢賢治銀河鉄道の夜伊藤計劃「ハーモニー」か。どちらも素晴らしい世界構築であった。

 ここでは宮沢賢治銀河鉄道の夜」のレビューを。

レンズ越しに銀河を見る者もまた,銀河を抱えている.無数の宇宙が,ここでは一体となって共鳴し合う./多方向の知識と独自の哲学が凝縮された短編集.解こうと思えば「難解」であるが,おそらく解かれることを前提にはされていない./物語(ものによっては寓話)と現実との深いラグが,読者に空白感を与える.この塩梅が天才的.

 

2017年

f:id:ryosuke_okubo:20190907094756p:plain

5年目。この辺りから「Guardian's 1000 novels everyone must read: the definitive list」の読破を意識するようになった気がする。

 

変態というか,倒錯にはもとより興味があり今に始まったことではない。バタイユ眼球譚はおそらくエロティシズムの極致(まだ分かりきってはいないが)。

読むと頭がおかしくなると言われている夢野久作ドグラ・マグラはなんだかんだ面白く,何度再読しても新しい発見に満ちている作品。むしろ頭がおかしくなるのはキャロル「不思議の国のアリスの方では?あれはマジでわからん。

 

プルースト失われた時を求めては月1巻ペースで少しずつ読み進めた。理解に苦しむことも多かったが,様々な切り口から俯瞰できる名作だと思った。あまりいいレビューではないが,全13巻分掲載する。

1:五感として無意識に処理された事象を,「言葉」に変換した小説.小説として当然のことかもしれないが,それを顕在化させたことに意義があるのだと思う./文章のスタイルが音楽に近い気がする.

2:真の3次元を意識できる文章./一段落一文章が長いだけに,巻末の索引は本当に助かる.

3:時折挟まる作者自身の芸術観にハッとさせられる. 酔いを呼ぶような美文の中であるから尚更である.

4:イメージの奔流. 作者の思想が明確に現れている文章は少し腰を入れて読もうと思っている, のだがそのうち忘れそうだ……

5:夢想, 期待からの失望, 幻滅が繰り返される. /スノッブな貴族達は遠いようでとても近い存在のように思う. ドレフュス事件に対するコメントの多くが彼らの不勉強ぶりを晒す.

6:長い長い悪口大会. けれども読んでしまう, 時間の無駄とは思わなかった. 特に大きな動機はないが, なんとなく, 先を読みたくなる作品.

7:ここにきて同性愛の暗喩が浮かび上がってくるが, 雰囲気自体はあまり変わらない. 知覚できるかスレスレ程度の沈降.

8:p590「祖母の死んだことを知ったのだった」/べつにネタバレではない, 祖母は6巻あたりで既に死んでいる. ここにきて知ったというのは今更のように思うが, どうも本作では見ることと知ることは別物らしい. 突如蘇る記憶. 喋れば薄っぺらくなり, 考えれば迷子になるのも本作ならではの空間.

9:私の表象が意図的に隠されることにより, 存在自体がふわふわしたような印象を受ける. キャラクター化する決定打が欠ける. /やはりどう頑張っても要約はできない. 同性愛, 社交界……いや確かにそうなのだが, そのような「固定化」を本作は阻んでいるのではないか?と思う.

10:ここにきて序盤のモチーフが繰り返される, いよいよ佳境か. また巻を追うごとに芸術批評の性質が強まる. /表面的な意識は時間とともに消えるが, どうしても習慣は隠せない(例えばp255 me faire casser).

11:過去は失った途端に意識の中で引き延ばされる. しかし, 残酷にも時は忘却をもたらす. 指標を求め苦悩する姿が全面に現れる巻だった.

12:第一次世界大戦に対する各人のリアクションから, 総まとめとしての芸術論, 創作論へ. p430「文学作品のすべての素材は, 私の過ぎ去った生涯であるということを」をはじめ, 創作者のみならず鑑賞者にとっても刺さる言葉が多い.

13:読後, 静かなよろこびに支配された. それは物語を終えたこと, 1巻から続く流れを感じられたこと, そして, まだまだ見出せるものがあるということに対して. おそらく再読するときには, 時の作用を一層感じることだろう.

 

 

2018年

f:id:ryosuke_okubo:20190907094813p:plain

6年目,特に英米文学を意識して読んだ気がする。 文学でのあたりが少なかったので,試験的に教科書をランクインしている。

 

宮崎駿風の谷のナウシカは,映画と全く印象が変わった記憶がある,断然原作の方が良い。漫画でのランクインは初。

 

トウェイン「ハックルベリー・フィンの冒険アメリカ文学の開闢を告げる作品である。

上:ハックの印象的な語り. /p271ジムは本当に自由になるんだってことが頭ん中ではっきりわかってきたから. で, それは誰のせいかっていうと, おいらのせいだから. そのことがどうしても良心にひっかかって, どうしようもなかった. /p346おいらとジムはあおむけに寝ころんで星を見上げて, あれは誰かが作ったもんなのか, それとも自然にできたもんなのか, って話しあったりした. 〜ジムは, お月様が産んだのかもしんねえぞ, って言った. それはあるかもしんねえと思ったから, おいら, 言い返さなかった.

下:偽物を偽物であると看破し, 自らのあるべき姿を求め冒険するハック. p164「いいや, おいら, 地獄に行く」という言葉による, 偽りの良心からの決別がとても印象深い. これは彼の熟考たるものだろう. 彼を前にすると, 英国人の真似をして荒稼ぎに走る王様と公爵, 本の真似をして大胆な冒険に走るトム, その他諸々の人々が小さくみえる. ハックの決然とした態度はまた, アメリカ人のアイデンティティ探求を思わせるところがある. 本作からアメリカの源流を見出そうとすることは無理もないことだ.

 

2019年(暫定)

f:id:ryosuke_okubo:20190907094835p:plain

 

7年目。さて今年はどうなることやら。