202103 - ビジネス会計検定試験 3級 に合格しました (勉強法・所感など)

ビジネス会計検定試験3級に合格しました。

合格までの経緯をまとめます。

これから受験する方の参考になれば幸いです。

合格証

f:id:keabe:20210420232228p:plain

最初に私ってどんな人?

  • 普段は webエンジニアとして システム開発をしている
  • 会計に関する知識は全くなし
  • 財務諸表?なにそれ。損益計算書?聞いたこともない。

恥ずかしながら...試験前はこの程度のレベルでした。

目的・動機

会計に関する基礎知識を身に付けたかった

もっとも原始的な動機としては、

自分の会社へのコミットがどれくらい業務成績に反映しているのか

理解できるようにしたかったからです。

目の前の案件を全力でこなしてはいるものの、その結果どのような利益につながっているのか。

局所的には把握してはいるが、もっと大局的な視座から把握したい。

そして、さらなる業務提案をしていきたい。

そのような思いから、必要となる財務諸表のリテラシー取得のために、今回受験を決意しました。

合格までの道のり

やったこと

公式のテキスト・問題集だけ で十分でした。

youtube

初段。知識不足から、いきなり公式テキスト に入るのが少し辛かったのでyoutubeを活用しました。

ほらっち先生のチャンネルが わかりやすかったです。

合格するには、不十分ですがはじめの一歩としては最適。

すごくスムーズに知識導入ができました。

詳細

keabe.hatenablog.com

ポイント

一つ一つ完全に理解するのではなく・繰り返し理解する

初段、一つ一つの項目を理解しながら学習を進めていましたが

基礎知識がない状態で、一つ一つに こだわっていると、

なかなか前に進まない状況に陥りました。

途中から方針転換し

ざっくりでいいから、理解して先に進む。

繰り返し学習しながら、問題集で知識定着。

少しずつ肉付けしていく。

このように学習を進めてから、スムーズに前進することができました。

今分からなくても、必ず後からわかるようになるから大丈夫。の精神。

試験勉強してみて・受かってみて

結論から。

今回、ビジネス会計検定試験を受験してみて本当に良かったです。

理由は、会計まわりのドメイン用語を聞いたときに

パッと知識の結びつきができるようになったからです。

会計に関する基礎知識がインプットされたことで、

自社の財政状況も客観的に理解できるようになりました。

加えて、経済ニュースも理解しやすくなりました。

next step

今回、得た知識はあくまで基礎の基礎。

これを基にさらなるチャレンジをして行こうかと思います。

202104 - 統計検定2級 学習日記

4/27

統計web Step0 3. 時系列データ

  • 変化量
    • 変化率: 前時点での値に対する、ある時点と前時点との値の差の割合を求める方法
    • 指数: ある基準時点での値に対する、それぞれの時点の値の比率

統計web Step0 4.代表値と箱ひげ図

  • 平均、中央値、最頻値
  • 四分位数
    • 25パーセンタイル(第一四分位数)
    • 50パーセンタイル(中央値)
    • 75パーセンタイル(第三四分位数)
  • 箱ひげ図
    • 箱: 四分位数
    • ひげ: 四分位範囲の1.5倍以下の範囲にあるデータの中でmax or minのデータまで伸ばす
    • 外れ値: ひげから外れたデータ

統計web Step0 5. 分散 標準偏差

  • 分散・標準偏差の求め方
    • 1: 平均
    • 2: 平均誤差
    • 3: 2乗
    • 4: 和
    • 5: サンプル数で割る => 分散
    • 6: 分散の平方根 => 標準偏差
  • 変動係数: 平均値に対するデータとばらつきの関係を相対的に評価

4/26

統計web Step0 2. さまざまなグラフ

  • クロス集計表
  • モザイク図
    • クロス集計表の各層を縦棒の積み上げ棒グラフとして表したグラフ
  • 積み上げ棒グラフ

  • モザイク図だと 割合はわかるが絶対量はわからない

  • クロス集計で 割合欲しければ モザイク図、絶対量欲しければ 積み上げ棒グラフ

4/21

統計web Step0 1. データの集計

  • 1-1

    • 質的変数
    • 量的変数
      • 離散変数
      • 連続変数
  • 1-2

    • 集計
      • 質的変数
        • 度数: カテゴリごとの集計数
      • 量的変数
        • 度数分布表: 適当な区間ごとの集計表
          • 階級: 区間のこと
          • 階級値: 区間の真ん中の値
          • (累計)相対度数: 全体に占める割合

4/20

学習スタート まずは基礎調査から

合格体験記

いくつか読んでみて

  • 統計WEB => 問題集を繰り返し
    • これが王道っぽい
  • 基礎知識として、数学(微積、確率)は必要そう
  • まずはとっつきやすい本で入門するとスムーズかもしれない

各種リソース

道筋

  • 1: 入門・導入(1week)
    • 数学(微積分・確率)
    • 統計
  • 2: 統計web
  • 3: 問題集

2, 3の繰り返し

でやってみよう

2021#01 G検定に合格しました (勉強法・所感など)

ディープラーニングを中心としたAIに関する資格であるG検定に合格しました。

合格までの経緯をまとめます。

これからG検定を受ける方の参考になれば幸いです。

合格証

f:id:keabe:20210419165931p:plain
2021#01 G検定合格証

目的・動機

1: AIに関する基礎知識を身に付けたかった

近年、AIという言葉をよく耳にします。

AIとは。私自身、わかっているようでわかっていない。 そんな状況でした。

AIとは?AIを使って何ができるのか?

それをしっかり理解するためのステップとしてG検定受験を決意しました。

G検定でAIの基礎知識を身に付けた上で、業務や個人開発に応用できればと思っています。

2: 会社から出る奨励金が欲しかった

お金大事。

勉強開始前の状態

このような状態でした。

合格までの道のり

やったこと

1: 本

以下の本を読み進めました。

基本的には、こちらの本だけで十分でした。

2: 模試

試験直前に以下の模試を受けました

どちらの模試も実際の問題に近く、とても役に立ちました。

3: youtube

勉強内容の補足にyoutubeを活用しました。

詳細

以下のブログを参照のこと

keabe.hatenablog.com

ポイント

個人的に重要だと感じたポイントを残します。

1: 基本的には 公式テキスト+問題集 で十分

ブログを漁ると、公式テキストだけだと不十分だとちらほら出てきます。

たしかに満点を取るには不十分かもしれませんが、

合格するには公式テキストの内容だけで十分でした。

特に、私のようにAIに関する前提知識がない場合

あれこれ公式テキスト以上に風呂敷を広げるのではなく、

まずは、公式テキストの内容をガッチリ固めることが重要

だと個人的には感じました。

2: 余裕があればAI白書で社会・法律問題

たしかに公式テキストだけだと、

最新の社会動向、法律問題に対応できません。

基礎知識をしっかり固めた上で、

余裕に応じて AI白書 を用いて最新情報をピックアップしましょう。

私は、直前までそれほど余裕がなかった + それほどお金もかけたくなかった ので

試験数日前に 過去のAI白書(無料で公開されています) を さーっとだけ 眺めました。

ちなみにAI白書は、図書館にも貯蔵されているようなので、

興味がある方は、まずは図書館で眺めてみるといいかもしれません。

3: 重要な物から理解する

公式テキストを1章から順々にやるよりも

ディープラーニング(DL)手法、DL応用、機械学習 というように

出題数が多いものから手をつけました。

後々振り返ってみても、各章ごとに出題数は大きく偏りがあったので

有効かつ限られた時間の中では効率的に学習できたと思います。

4: 一つ一つ完全に理解するのではなく・繰り返し理解する

初段、一つ一つの項目を理解しながら学習を進めていましたが

基礎知識がない状態で、一つ一つに こだわっていると、

なかなか前に進まない状況に陥りました。

途中から方針転換し

ざっくりでいいから、理解して先に進む。

繰り返し学習しながら、少しずつ肉付けしていく。

このように学習を進めてから、スムーズに前進することができました。

今分からなくて、必ず後からわかるようになるから大丈夫。の精神。

試験勉強してみて・受かってみて

結論から。

今回、G検定を受験してみて本当に良かったです。

理由は、AIまわりのドメイン用語を聞いたときに

パッと知識の結びつきができるようになったからです。

CNN? 画像認識によく使われるモデルね。

画像のように2次元情報の位置情報を活かせるモデルね。

RNN? 時系列情報を活かしたニューラルネットワークね。

過去の情報を活かすことで、翻訳や音声認識に効果があるのね。

といった具合です。

AIに関する基礎知識がインプットされたことで、

最新AIに関するニュースも理解しやすくなりました。

next step

今回、得た知識を基に以下の

チャレンジをして行こうかと思います。

  • 資格・学習
    • E検定
  • 創作
    • AI技術を使ったシステム構築

202103 - ビジネス会計検定試験 3級 学習日記

どころどころ日記つけるのサボって 歯抜けなのはご愛嬌

2/20 基礎的な財務諸表の概要理解

2/24 公式テキスト第3章 損益計算書

PLの方が理解しやすかったので PLから理解

  • 損益計算書の仕組み
  • 3つのルール
    • 発生主義: 費用計上ルール => 費用が発生したタイミングで計上しよう
      • ex. 3月の電気代 , 5月に請求きた => 3月で計上
    • 実現主義: 収益計上ルール => 受け取りが確実になった時点で計上
    • 費用収益対応: それぞれ対応関係がわかるように計上しよう
      • 個別対応
      • 期間的対応
  • 売り上げ総利益
    • 原価計算方法
      • 在庫調査 = 棚卸し
      • 当期(商品|製品)仕入高 + 期首(商品|製品)棚卸高 - 期末(商品|製品)棚卸高
  • 営業利益
    • 販売費および一般管理費: 本業を行うためにかかった販売や事務費用
  • 経常利益
    • 営業外損益: 本業以外の財務活動・投資活動での損益
      • (受取|支払い)利息
      • 有価証券
      • 受取配当金
  • 税引前当期損益
    • 特別損益
      • 固定資産売却
      • 投資有価証券(有価証券は営業外)
      • 災害

2/25 公式テキスト第2章 貸借対照表

  • 貸借対照表のしくみ
    • 別名?: B/S バランスシート
    • 構造
    • 流動・固定の分け方 2つのルール
    • 全般的な2つのルール
      • 総額主義: 相殺しない
      • 重要性の原則: 重要じゃないことは簡素に
  • 資産とは
    • 流動資産
    • 有価証券の割り振り
      • 流動資産
        • 売買目的有価証券・1年以内の満期有価証券
      • 固定資産
        • 満期有価証券、子会社・関連会社、その他
    • 固定資産
      • 3種別: 有形、無形、投資・その他
      • 有形
        • 建物、構築物、装置、用具、土地、建設仮勘定
        • 減価償却
          • 定額法: (取得原価 - 残存価格)/耐用年数
      • 無形
        • のれん、特許権、商標権、ソフトウェア
      • 投資・その他
        • 投資有価証券
      • 繰延資産
        • 創立費、開業費、開発費
  • 負債

3/2 収益性の分析

公式テキスト5章 9節

収益性の分析

3/3 1株分析

公式テキスト5章 10節 f:id:keabe:20210303154652p:plain

3/4 2周目 テキスト 1章 財務諸表とは

f:id:keabe:20210303233326p:plain

3/5 2周目 テキスト 2章 貸借対照表

f:id:keabe:20210305164338p:plain

3/8~ 直前対策

  • テキストと問題集を繰り返し解いて知識定着

202103 - G検定 学習日記

どころどころ日記つけるのサボって 歯抜けなのはご愛嬌

~2/9: 事前調査

~ 2/9 人工知能は人間を超えるか

  • さくっと読んでみた
  • ディープラーニングの概要理解、はじめの一歩として最適
  • 楽しく、ざっくり理解できた

2/9~2/16: G検定公式本読む

2/17 ディープラーニング手法

  • youtube あさる
  • 改めて公式本を読む 6章 DLの手法
    • 精度をあげるアプローチ
      • 入力データ処理
        • 正規化・標準化・白色化
        • バッチ正規化
      • 学習途中
    • 6-2 学習率の最適化
      • 勾配降下法
        • 概要
          • 目標: モデル予測値と実測値の誤差(誤差関数)をなくすこと
          • (誤差)関数の最小化 => 微分(変数は複数あるので正確には偏微分)
          • 実現方法
            • 入力が多次元 => 解析的に解決は無理
            • アルゴリズムを用いて最適解を探索
            • => 手法: 勾配降下法
          • ニューラルネットの学習
            • 各パラメータに対して勾配降下法を適用して繰り返し計算
        • 問題 と 対策
          • 問題1. 下に凸が2つある関数 => 勾配0が二箇所
            • 探索順序によっては 見せかけの最適解にだまされる
          • 対策1: 学習率を大きくする
            • 一気に余計な山を超える
            • 一方で学習率が大きいままだと 本当の最適解すら超えてしまうかも
            • 適切なタイミングで学習率を小さくすることが大事
          • 問題2: 次元が大きくなると鞍点に惑わされる
          • 対策2: どの方向に沿って勾配を進んでいる時に学習率を増減するかを検討
            • 90's: モーメンタム: 最適化の進行方向に学習を加速
            • Adagrad, Adadelta, RMSprop, Adam
        • 用語
          • エポック(k) : 何回計算(探索)を行ったか
          • 学習率(α): 勾配に沿って一度にどれだけ降りるか
            • 大事な設定値 => 場合によっては最適解が得られないことも
          • 局所最適解: 見せかけの解
          • 大域最適解: 本当の最適解
          • 鞍点: ある次元から見れば極小・別の次元からみると極大
          • プラトー: 鞍点から抜け出せず 停留状態にあること
    • 6-3 さらなるテクニック
      • ドロップアウト: オーバーフィッティング対策
        • エポックごとにランダムでニューロンを除外
        • 形の異なるネットワークを複数学習する
        • => アンサンブル学習
      • early stopping
        • どう頑張っても学習を繰り返していくと 過学習になる
        • テストデータに対する誤差関数が右肩上がりになったら学習打ち切り
        • ヒントン: BEAUTIFUL FREE LUNCH
      • データ正規化・標準化
        • 正規化: 簡単な例: 0~1にスケール揃える
        • 標準化: 平均0、分散1に揃える => 標準正規分布に従わせる
        • 白色化: 各データを無相関にした上で標準化
        • バッチ正規化
          • DLは多層
          • => せっかく正規化しても層を挟むごとに崩れる
          • => 各層ごとにつどつど正規化する
          • 具体的には 各層において活性化関数をかける前に伝搬してきたデータを正規化する

2/18 CNN

  • youtube
  • 公式テキスト 6章 CNN
    • 要点
      • “画像に特化” したニューラルネット
      • 画像は位置情報がある => 入力を2次元で扱えることが特徴
      • アプローチ: 人間の視覚野 S細胞とC細胞 を模倣
      • CNN = 畳み込み層(S細胞) + プーリング層(C細胞)
      • 畳み込み
      • 目的: 画像の特徴を抽出
      • 結果: 移動不変性に貢献、位置のズレに強いモデルにする
      • 手法: カーネル使って特徴マップ生成 = 行列の圧縮
    • 用語
      • CNN: 画像に適したニューラルネット
      • 単純型細胞(S細胞): 人間の視覚野のうち 画像の濃淡を認識する細胞
      • 複雑型細胞(C細胞): 人間の視覚野のうち 位置が変動しても同一物体とみなせる認識する細胞
      • 畳み込み層: 画像から特徴を抽出する層 S細胞を模倣
      • カーネル: 画像から特徴を抽出するフィルタ
      • プーリング層: 行列を圧縮する 以下、詳細
    • 既存ニューラルネットと画像の相性 悪い
      • 例えば画像
      • 画像の特徴: 縦横位置情報2次元、色3次元
      • 通常のニューラルネット: 入力が縦1列 => 位置情報が消失
  • CNN
    • 画像をそのまま2次元で入力に用いることができるモデル
    • アプローチ: 人間が持つ視覚野の神経細胞の2つの働きをモデリング
      • 単純型細胞(S細胞): 画像の濃淡
      • 複雑型細胞(C細胞): 位置が変動しても同一物体とみなせる
    • 初期モデル: ネオコグニトロン 福島さん
      • S細胞層とC細胞層 交互に複数組み合わせ
    • 1998: LeNet: ヤンルカン
      • 畳み込み層(convolution)・プーリング層(サブサンプリング)を交互に組み合わせ
      • バックプロパゲーション
      • 畳み込み: カーネル(=フィルタ) で 画像から特徴を抽出
      • カーネル: 小さな行列
      • 画像の行列とカーネル掛け合わせて、総和、小さな行列に変換(畳み込む) => 特徴マップ
      • どんなカーネルにするか: 重みづけに該当

2/19 RNN

  • youtube あさる
  • 公式テキスト 6-5 RNN
    • 導入
      • 世の中のデータの多くは時系列パターン持っている
      • 従来のニューラルネットは入力が一次元 => 時間順序を失う
      • 過去の重みを反映できる仕組みを模索
    • 基本形
      • 通常のNN + 過去の隠れ層
      • 逆伝搬も時刻を遡る => BackPropagation(+ Through Time)
      • 問題点
        • 勾配消失: 時刻を遡る => ネットワークが深くなる ため
        • 入力・出力重み衝突: 時系列 => 今は重要じゃ無いけど あとで重要になる => 今は重み弱く、後で重み強く => 問題解決のためにLSTM(Long Short-Term)
    • LSTM
      • 隠れ層 の構造を工夫
      • LSTMブロック
        • セル: 誤差を内部にとどまらせる
        • ゲート: 入力・出力・忘却
      • 問題点: 計算量が多い => 簡略化: GRU(Gated Recurrent Unit)
    • GRU
      • ゲート: リセット・更新
    • 発展系
      • Bidirectional RNN
        • 途中かけた 時系列データを予測したい
        • => 過去・未来 両方のデータを利用
        • => LSTMを2つ組み合わせる
      • RNN Encoder-Decoder
        • 入力時系列 : 出力時系列
        • Sequence to Sequence
      • Attention
        • 既存のRNN 時間ごとの重みを考慮していない
        • 時間の重みをネットワークに組み込み モデル

2/23 強化学習・深層強化学習

youtube

要点

  • 強化学習
    • 行動・状態・報酬・方策
      • エージェントに対して 方策に基づいた 行動と 行動結果の状態 それに伴う報酬を定義
      • 報酬が最大化するようにエージェントが学習
    • 脳の学習メガニズム: オペラント学習に由来
  • Q学習
    • Qテーブル
      • 状態と行動の行列、値はうまくいく確率(報酬に基づいて算出)
      • 問題点 => 状態が多くなると行列デカくなって計算量増大
  • 深層強化学習
  • cart pole問題
    • カートの上にのったポールを落とさないようにバランスとる
    • 1: 報酬定義
      • 決め: 200フレームキープできたら +1
      • 決め: 45度以上傾いたら -1
    • 2: 状態定義
      • 決め: ポールの角度と角速度を利用。それぞれ12分割=> 144通り
    • 3: 行動定義
      • 今回は取りうる行動は <-, -> の2通り
    • => これで144*2のQテーブルができる

2/24 深層生成モデル

  • やったこと
    • 公式テキスト6-7
  • 概要
    • DLができること
      • 認識・識別タスク
      • 生成タスク
        • 画像、時系列データ etc...
    • 生成の種別
      • データから新しい何かを作りたい
        • 識別の延長
          • 音声生成: WaveNet
      • データそのものを作りたい: サンプリング
        • 生成モデル と呼ばれる
  • 画像生成モデル
    • VAE: 変分オートエンコーダ
    • GAN: 敵対的生成ネットワーク
  • VAE
    • オートエンコーダー活用
      • 従来との違い: not 圧縮、 yes 統計分布 (平均、分散表現)
  • GAN
    • 2種類のネットワーク(generator vs discriminator)を競わせる
      • generator
        • 形式: 入力ベクトル => 出力 画像
        • 目的: discriminatorが間違えるように学習して画像生成
      • discriminator
        • 形式: 入力画像 => 画像の真偽を予想出力
        • 目的: 真偽の精度向上
      • 予想結果をgeneratorにフィードバック

3/3 G検定シラバス

  • 今日から公式テキスト 2順目
  • 問題形式にも慣れていきたいので 問題集 を購入
  • 公式テキストと 問題集の両翼で 知識定着を図る

    シラバスを改めて確認

  • シラバスにあがっている項目のイメージがつくかどうかcheck f:id:keabe:20210303180254p:plain

3/9 試験攻略tips

問題量 多い順

時間・配分

  • 2h、220問
  • 30sec/問

  • わからないものはどんどん後回し

    • 調べてわかりそうなもの => 後から or その場で 回答
    • 調べてもわからない => とにかく後回し

検索ノウハウ

  • 新しいタブでいくつかサイト開いて、ctrl + Fで用語をひっかけていく

事前準備

  • 紙とペン
    • 計算問題

3/9 問題集4.1 ニューラルネットワークとDL

  • 要理解メモ
  • 整理
    • 公式テキスト5-2 DLのアプローチ
      • 事前学習 => オートエンコーダーを順番に学習すること によるDL
        • 最近ではほとんど見受けられない 初期の設計
        • オートエンコーダー by ヒントン 2006
          • 隠れ層・可視層(入力・出力がセット): 可視層 -> 隠れ層 -> 可視層
          • 入出力が同じ => ex. 3を入力したら3を出力
          • 何の意味があるか? => 隠れ層に入力情報が圧縮 (入力層よりも隠れ層の次元を少なくした場合)
          • => 入力した情報を要約し、元に戻す: エンコード、デコード
        • 積層オートエンコーダー
          • オートエンコーダー is not DL => 単層だから => 積み重ねることでdeepに
          • どう積み重ねるか => オートエンコーダーを順番に入力に近い層から学習させ積み重ねていく
        • ファインチューニング
        • 深層信念学習(deep belief networks) by ヒントン、2006
      • 事前学習なしのアプローチ

3/15~ 直前対策