プログラミングの日々。

プログラミング(Python中心に)を学ぶ日々の記録。

電気代

先月の電気代が想定以上に嵩んだことは先に書いたのだが、

どうやらうちだけではなく、日本の多くの世帯でそうなっているようで。

 

特にうちは暖房は電気に依存しているため、とかく頭を悩ますところである。

たいへん悪いことに自室の暖房の調子が悪く、1〜2時間程度すると止まってしまう。

そのため、冬の間は暖房が効く自宅の別部屋に仮住まいをすることにした。

 

寒さが身に応えるようになった近年、寒さをしのげるのはありがたいことだが、

寝るのは元の部屋だし、必要に応じて作業をすることもあるので、

毎日2つの部屋を往復する日々である。

 

これで1月の電気代が節約できればよいのだが、前年同月より上がっていることはかくごせねばなるまい。

 

 

 

 

 

 

長期休暇明け。

仕事の繁忙さから心身の疲労を感じたため、

先月からさらにこの1ヶ月ほどプログラミング学習を休止してきた。

 

おかげで、仕事のほうは無事に山を乗り越えられたが、

これまで学習したことの多くが流出してしまったようだ。

 

 

もう少し仕事のほうに力を入れなければならないが、

余裕が出てきたので、プログラミング学習も少しずつながら再開した。

 

先の通り、2カ月近く間が空いたためにこれまでの内容が大分流出したものの、

学習の途中経過はメモに残していたので、それをもとにして知識を取り戻している。

 

 

自身の体調や自らを取り巻く環境の変化等、

始めた当初から取り巻く環境が厳しくなってきている。

さらに直近では物価高に伴う各種の節約が余儀なくされた上に、先月の電気の使用量が予想以上に嵩んだりと、追い打ちをかけることが続いている。

 

しばらくは、業務関連での活用(主に経理関連・事務作業効率化、ローコードを含む)

に重点に置くことにして、遊びとしてのプログラミングを適宜入れることにしたい。

 

 

色々とやりたいところだが、時間は有限。

「時は金なり」という言葉がまさに今、身に染みるところである。

 

 

空白の3週間と新たな動き。

この3週間ほど仕事と家事に時間と気力・体力を消費しすぎ、プログラミングから遠ざかり気味。

仕事や家事に集中する必要に駆られると、それ以外のことには力を注ぐ余力がなくなる体質なので我ながら非常に困ったものである。

最近ようやく仕事の方が一段落したので、これから少しでも取り戻したい。

 

一方でプログラミングのコミュニティ関連からあらゆる面でよい方向につながる相談が持ちかけられ週半ばに面談の機会が。

Pythonからは距離が離れる可能性があるものの、知識や経験の引き出しを増やすことにつながるので、これからもこうした機会は大事にしていきたい。

 

ここ数年寒さに弱くなった。

加齢も理由の一つだろうが、頭も体も動きが鈍くなるので、

そこから健康を損なわないようにしなければと思う。

 

国税庁からの手紙。

4月に父が亡くなったのだが、それから7ヶ月ほど立った先週、国税局から封書が届いた。中身は相続税の申告の確認の案内。

 

督促とか申告漏れの通知というわけではなかったが、一定以上の資産があれば申告しなければいけないので、急ぎ土地と家の価格について調べる必要に迫られた。

 

建物については、毎年春に届く固定資産税の納付書についてくる「固定資産税評価額」を参照し、土地については国税庁の路線価図と先の固定資産税評価額にある土地面積(平米)を参照し、家土地以外の財産や葬式費用による増減を加味してざっと調べたところ、相続税の申告が不要であることが判明した。

 

余計な手続き等をしなくてよかったが、今度は確定申告が控えている。

母はおそらく確定申告をしたことが無いと思うので、自分がやらなければなるまい。

基本的なやり方については医療費控除で自分個人の分の申告を毎年やっているので問題はないだろうが、必要書類などの情報収集など早めに手を付けたい。

気温差に悩まされる。

このところ日中の気温が高い。

土曜日(11/12)は27度ぐらいだった様子で扇風機が久しぶりに活躍した。

 

基本的に冬場のように気温が低いとメンタルも落ちやすいが、

ここ最近のように、寒暖差が大きいのもメンタルが落ち着かない。

加齢のせいか、ここ数年は加えてフィジカルへの負担を大きく感じている。

 

頭も体も動きが鈍くなって、コンディションを整えるのが大変だった先週。

たとえ気温が低くとも、気候が安定してくれたほうがいい。

 

 

自然言語処理モデルをさらに知る。

先週日曜日のBERTのオンライン学習会に続いて、3日に自然言語処理モデルに関するオンラインセミナーを受講した。

 

なかなか数学的で初歩レベルには難しい内容だったが、

 

Attentionは”Transformersの中核"であり、

BERTは”Transformersを始祖とする言語処理モデルの発展型”

 

ということを漠然とながら理解することができた。

 

このところよく聞く「AI〜」の多くが関連している自然言語処理モデル。

難易度は高いが、断片的やなんとなくという程度でもいいので今後も継続的に知識を高めたい。

 

studyco.connpass.com

 

 

 

 

BERTの学習会

昨日、三ヶ月ほど前から参加しているプログラミングのネットコミュニティでのオンライン学習会に初めて参加した。

 

今回のお題は「BART」。

Googleによる、自然言語処理の事前処理手法の一種。

文章を主語述語などに細分化・記号化して前処理をして機械学習に橋渡しをするもの、と個人的に解釈した。

文章を”食べ物”と例えるならば、BARTは”歯”のようなものというところか。

ちょうど夕方まで「BERTによる自然言語処理入門」で予習していた甲斐もあり、割とすんなりと理解することができた。

 

現段階でそれほど、Pythonやプログラミングの理解が進んでいる感じではなく、色々と応用できるようになるには時間がまだかかる。

とはいえ今日得たものを少しでも今後の学習の糧にしていきたい。

 

www.ohmsha.co.jp