肾小管


Kanal geosi va tili: Butun dunyo, Xitoycha


@ovler 的个人channel
为什么肾小管-排垃圾,重吸收。
随意转发

Связанные каналы

Kanal geosi va tili
Butun dunyo, Xitoycha
Statistika
Postlar filtri


https://lllyasviel.github.io/pages/paints_undo/
AI也会一步步画画喽
虽然类似于一步步撤销


https://arxiv.org/abs/2402.17764
1.58bit (ternary parameters 1,0,-1) LLMs, showing performance and perplexity equivalent to full fp16 models of same parameter size. Implications are staggering. Current methods of quantization obsolete. 120B models fitting into 24GB VRAM. Democratization of powerful models to all with consumer GPUs.
https://www.reddit.com/r/LocalLLaMA/comments/1b21bbx/this_is_pretty_revolutionary_for_the_local_llm/




https://omnimotion.github.io/
Tracking Everything Everywhere All at Once
实时跟随!!!


Video oldindan ko‘rish uchun mavjud emas
Telegram'da ko‘rish




【罗肖尼】如何永远学会一个单词?
@罗肖尼Shawney:
〰〰〰〰〰〰〰〰〰〰
🔝> @罗肖尼Shawney:
视频内容梗概——
第一章:三个难题
* 任意符号难题——记住单词如同记住一个任意的名字,而纯背单词所得到的记忆脆弱易失
* 宽度难题——单词知识如海洋一般宽阔,纯背单词就像用木桶舀海般捉襟见肘
* 深度难题——单词知识如井水一般深邃,纯背单词只能触及单词知识的表层
第二章:语境的力量
* 词汇如丝线、文本如织品,我们在语境中才能感受词汇的生命
* 要用图像、声音、事件、情感将词汇符号固定在记忆中
* 如果每读/听一百个词只遇到2个或更少生词(可理解输入),我们便可以像拼拼图一样从语境中推测、学会生词的意义
* 大部分的单词都需要我们在变化的语境中重复至少12次,才能被我们充分学会
幕间:语言传奇
* 掌握15门外语的匈牙利翻译家Lomb Kato的秘密武器是读原著闲书
* “只有阅读才能带来(单词的)无限重复”
第三章:一百万词
* 罗肖尼的词频统计显示Sidney Sheldon的十本小说(总篇幅共一百万词左右)为大学英语六级词汇提供了90%以上覆盖率、平均26次重复
* 近四十年的语言学研究指出,消遣阅读可能是人们绝大部分母语和外语词汇量的来源
* 每天阅读半小时便可以让我们在一年内完成一百万词阅读量;但养成习惯需要从微小的种子开始,因此我们需要从每天阅读半页纸开始
后记:书籍的皱纹
“只有这一种阅读,才是真正的阅读”


🍰




(转




已在v4.5.2修复


今天abc看了啥 🤔 dan repost
https://github.com/qbittorrent/qBittorrent/issues/18618
据 issue ,知名 BT 下载软件 qBittorrent* 的 4.5.0/4.5.1 版本出现了路径穿越漏洞,可导致攻击者通过已经启用的 WebUI 任意下载宿主上的文件,建议慎重升级。
*此漏洞与反斜杠相关,看上去只影响 Windows 版本。
**把安全漏洞细节直接发在 issue 上并不是什么好主意,所以警惕随之而来的扫描。建议套一层 nginx 以基于启用 basic auth 的密码验证。




悲:因为传播太快超过控制和伦理问题的考虑,作者在群中宣布暂停至少一月(


这里的例子以二次元为主,不代表ControlNet只能搞二次元。参考作者来源链接




一个例子,可以理解为线稿上色,同时可以参考同作者上一次的发布




AI绘图的第二次工业革命可能开始了
Control Net,彻底的自由操纵
我粗浅的看来,主要技术的优势应该至少有下面这些,不一定对,欢迎指正:
1. 不改变原来的模型,而是增加别的层,大幅降低训练模型的算力成本
2. 可以严格遵循输入信息,不会引入多少畸变之类的误差,比如线稿模式下手不会崩,透视不会错
3. 不是整个把图片吃进去,而是讲输入的图片进行转换,吃进比如深度图啊,线稿啊,梯度等的东西,看起来少学习到了原图的东西,但是学到的都是最重要的地方,也一起降低了生成时的成本

20 ta oxirgi post ko‘rsatilgan.

75

obunachilar
Kanal statistikasi