狐狸club

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 116|回复: 0

刚刚,涨疯了!

[复制链接]
发表于 2023-3-1 23:43| 字数 83 | 显示全部楼层 |阅读模式

3月首日开门红,沪指突破站上近期新高3312!

今早的国内PMI数据有个爆发,官方52.6,财新51.6(为2022年7月以来最高),都回到荣枯线上且较大幅正面。

为何央妈觉得不需要再加大力度,改为精准发力,原因算是实锤了。

我们的经济还在肉眼可见的复苏,虽然每个人体感还是不一样,不过中长期投资比的就是分歧阶段谁对大势看更准吧。

也因此盘面有很直接的反应:人民币骤升,美元指数急掉,外资再度大举回流,权重股的涨幅也更好。

有人说外资是疯子,我倒觉得他们很现实,更注重看证据。

相比起来,用“3月开门红”来简单解释盘面,也是对的,只是比较流于表面,是偏博弈的思维。

这句不完全是贬义,现实点说,机构筹码还是有一窝蜂倾向的,短期对资金面会有影响。

今天光伏储能哭晕在厕所大概就是为了这件事,墙头草觉得数字中国包含的体量可能会大于碳中和。

但我们因此远离碳中和吗?反而应该盯紧找找超跌机会吧,散户有时就得这么混饭吃。

因为,光储一季报应该会很好,这个我之前谈过了。

板块一年多的震荡调整,不是彻底沉寂的前奏,可能只是长牛慢牛途中的颠簸而已。

光储今年的原罪是(除了拥挤之外),增量成长看点在美国。

但昨天有位同学留言区说得好:浪潮也是被美国捏着蛋蛋的。

最近浪潮涨到不要不要的,百亿成交,还能新高,你找谁说理?

再一个:立讯被郭舔师点名,将负责A家的XR设备代工。这东西你说它没价值吗?

外贸,要不要赚美国佬的钱?

说回大盘,我们中长期对A股乐观,没有任何问题。短期也要做好“风格再平衡”的心理准备。

时间进入3月,本周六(3/4)大会揭幕,A股开会魔咒不是说会有大调整,只是行情一般会比较欠缺活力。

小作文可能继续此起彼伏,但对盘面的统治力也不一定太强。

预计3月11日大会结束,3月13日周一开始会后的交易,开完会一段时间,市场一般也是偏暖的。

我认为市场从这里开始,逐渐会展现不同的风格出来,俗称的切换,可以参考昨晚文章。

再说一次个人观点,我认为“风格再平衡”会回归到基本面驱动上面来。

不管什么股,只要具备业绩增长能见度,市场定价又与此背离,我们就有关注的理由。

......

全球宏观方面,衰退证据正在陆续显现。

周二出炉的美国消费信心数据和房地产数据均显示需求正在收缩,2月份集装箱闲置运力是去年同期的两倍,达到2020年8月以来的高位。

在美国1月数据普遍强劲后,接下来要看一看2月、3月如何发展(分别在3月、4月公布)

这会关系到流动性预期的钟摆会不会摆回乐观这一面,需要数据弱一点才行。

具体节奏:明天周四晚间,看就业(失业金+非农),周五晚间PMI,下下周二(3/14)晚间则是重头戏的通胀数据。

……

最近一直提到“算力”俩字,但也一直没有正经分析过。

感谢ChatGPT大热,前阵子各大券商也都给出了一定的图景,究竟AI产业潮,意味着多少算力?这里面包含了多少产值?

先看算力怎么衡量吧~我不是专业的,有错请不吝鞭打,谢谢~

人工智能三大支柱是算法、算力、算量。

拿健身来比喻,算法类似我们设计一套动作希望完成特定的锻炼目标,算量则是我们希望的训练量,算力就是执行训练的主要凭借。

毕竟如果只能手拿3kg哑铃做塑身训练的人,一下子上100kg的卧推,肯定不现实。

以多高的效率执行多大的训练量(单位花费时间),这就是算力的衡量方式。

一般意义上的浮点运算操作FLOPS,指的是“每秒所执行的浮点运算次数”(floating-point operations per second) 。

所谓的浮点运算,就是计算机只能存储整数,所以实数都是约数,这个约数的加减、乘除、比较、移位、乘方等。

OpenAI则定义神经网络中的一次乘法或者一次加法为一个浮点运算操作,和一般定义略有不同,这个知道就好。

如果每秒钟可以进行10的15次方运算,也就是1 peta flops,那么一天就可以进行约10的20次方运算。

这个算力消耗被称为1个petaflop/s-day,简写为1个pfs-day。

OpenAI做过一个用来和真人打游戏的模型,算力达到800个pfs-day,10个月时间相当于人类打了几万年游戏,1天抵人类100多年。

模型是有大小区别的,也会迭代的,不同GPT-3语言模型的算力消耗(pfs-day)从不到3,到3000多,都有。

越大模型的实现,需要越强大的算力来支持训练过程和推理过程。

根据OpenAI的研究,从2012年以来,最大的AI训练对于算力的消耗已经增长了30万倍,平均每100天就翻倍。

根据2022年2月一支联合团队的研究结果《COMPUTE TRENDS ACROSS THREE ERAS OF MACHINE LEARNING》,大模型时代(2016年后),算力翻倍的需求时间是9.9个月。

(2010年前和摩尔定律基本同步,往后加速抛离)

不论是哪种,都比摩尔定律的20个月翻倍要快许多。

AI芯片的算力性能提升都是决定大模型从理论实践到大规模应用的关键要素。

这个有概念的话,然后就是怎么看懂市场空间计算了。

对模型来说,分为训练成本推理成本

训练成本包括堆芯片服务器的硬件配置(自建IDC训练)或使用成本(云端训练)

推理成本和用户访问量有关,主要属于硬件使用成本。

(未完待续)

1945.jpg
狐狸club温馨提醒
本文采集自微信公众号
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 收藏帖子 搜索

网站状态|免责声明|Archiver|手机版|小黑屋|网站地图|club·befox·net

GMT+8, 2024-11-25 17:47 , Processed in 0.074775 second(s), 14 queries , Gzip On, Redis On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表