@爱洗澡的鳄鱼,AI软件都会要求把数据放在物理显存的,如果物理显存放不下,有的AI软件会直接退出,有的会直接开始使用内存。很少有AI软件会使用共享显存,因为比直接使用内存还慢。此外,ollama这样的软件可以在设置里调整要把模型的多少层放在显存,多少层放在内存,调好就不会显存爆满了。
@那妞真美,什么显卡,什么CPU?
目前没有做
卸载方法
- 执行以下命令:
sudo -i cd /proc/sys/fs/binfmt_misc echo -1 > FEX-x86_64 echo -1 > FEX-x86 rm /usr/bin/FEX* exit
- 删除主目录里的 .fex-emu 隐藏文件夹:
rm ~/.fex-emu
- 再删除先前解压出来的
FEX-Emu-2407-UOS-ARM64
文件夹即可
如果遇到这种错误:
可以执行以下命令修复:
sudo apt install patchelf cd FEX-Emu-2407-UOS-ARM64 file ./bin/* | grep ELF | awk -F':' '{print $1}' | while read f; do (set -x; patchelf --force-rpath --set-rpath "$PWD/lib" "$f"); done
@nanalilo,应该还有一个地方要修改,而且OrayKVM这几个字分别出现在两行,所以你可能没搜到。试试用ida pro打开这个hex文件,你应该就能找到另一个地方在哪里。
IDA Pro 7.7:https://pan.baidu.com/s/1OY8eTT8w-Ix9tAuF6gNUDA?pwd=E9ui
解压后双击 ida64.exe 启动。
还可以切到Hex视图找。这是1.4的,在一行。1.3可能在两行。
@上善若水,好
用工具分割出错了。不过我发现谷歌提供了分好的字体,只要下载一下就行了:
https://fonts.googleapis.com/css2?family=Noto+Color+Emoji&family=Noto+Emoji&display=swap
所以接近10MB的文件预计每隔几天就会重新下载一次,因为它太大了,更容易变成缓存清理的目标
浏览器的缓存文件夹是有大小上限的,一旦达到上限就会开始不断滚动删除以前的内容
@无名啊,但是无论虎绿林提供什么信息,浏览器都会因为下载了太多其他网站的数据而清除虎绿林的内容,这你可以理解吧。
@无名啊,服务器已经提供了避免重新下载所需的所有信息,能不能取决于你的浏览器
还有,这个拆分功能如此方便,我没有理由不用它:
https://hu60.cn/q.php/bbs.topic.105758.html?floor=14#14
@无名啊,浏览器会自动清除缓存,一段时间没有打开虎绿林,打开其他网站多了,虎绿林缓存就被清理了,这是我们没办法控制的。
还有,某些浏览器完全没有缓存,比如搜索引擎蜘蛛。现代搜索引擎蜘蛛都是会解析CSS执行JS的。
所以我准备把文件分开,就像mi-sans-L3一样拆成多个字体,这样就算所有页面都加载,也只会加载匹配到的那一个部分,不需要下载9MB
@无名啊,我以前以为只有出现了emoji表情的页面才会加载这个字体,但是现在从F12结果来看,所有页面都会自动加载这个字体,包括首页,而且如果缓存过期了就会重新下载。
不知道是不是我在unicode-range里面指定的范围不好,某个特定范围会匹配到会在所有页面里面出现的文字。
我感觉主要是这个字体太大了,有9MB。看来要基于unicode-range给它切片了。
https://hu60.cn/fonts/NotoColorEmoji/NotoColorEmoji.woff2
每次测得的情况都不一样。
看起来有很多人同时访问hu60.cn网页就会导致卡顿。
好像某些地区访问速度就是比其他地区慢,这是 https://hu60.cn/fonts/MiSans-L3/MiSans-L3.CJK-Unified-Ideographs-Extension-B-03.woff2 (161KB)的测速结果:
@无名啊,好吧,那我现在只能把file.hu60.cn从列表里删掉,让这个出口只由hu60.cn和winegame.net的web页面独享。
这样一来,就是file.hu60.cn有人下载导致卡顿了,不是file.winegame.net(它根本没有使用这个出口)。