<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xml" href="/feed.xslt.xml"?>
<?xml-stylesheet type="text/css" href="/assets/css/feed.css"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
	<channel>
		<title>Mayx的博客</title>
		<description>Mayx&apos;s Home Page</description>		
		<link>/</link>
		<lastBuildDate>Fri, 10 Apr 2026 21:08:36 +0800</lastBuildDate>
        <language>zh-CN</language>
		<atom:link href="/rss.xml" rel="self" type="application/rss+xml" />
		<atom:link href="/atom.xml" rel="alternate" type="application/atom+xml" />
		
			<item>
				<title>稀奇古怪的中国经济</title>
				
				
					<description>(北京时间 2008 年 7 月 04 日 来稿) 正如俗话所说，“当中国打喷嚏时，世界其他地方就会患……” 且慢，这难道不是用来形容美国时常用的陈词滥调吗？或许就是，但对于全球经济增长来说，这些天来中国经济减速几乎同美国经济衰退一样重要。北京能够驾驭其飞速增长的经济实现软着陆吗？或者说，世界将遭受美国、欧洲和中国经济虚弱表现的三重打击吗？中国经济的全球化不仅仅使中国产品走进了世界各地的数十亿个家庭，还把世界的命运同中国的未来联系在了一起。中国的出口几乎占到了世界总出口的 9%，而中国的进口正在帮助其他的经济体维持繁荣。其中近 1 / 3 的进口来自附近的日本、韩国等。由于日本试图巩固其期待已久的经济复苏，韩国则担心其出口需求下降，因而，中国增长的急速下降可能是危险的。美国、德国以及中国其他的主要供应国也以担忧的心情注视着中国。如果急剧减速到来，它的程度会有多大？中国政府明显意识到了其经济正处于过热的危险之中，但并不情愿采取严厉的措施为经济增长刹车。人民币价值适当而稳健的增长可能有助于减少中国的贸易顺差。然而，利率不得不大幅提高。采取这种权宜之计的部分原因可能是政治上的考虑。由于中国的中央银行并没实现真正的独立，所以即使一些经济学家预测说通货膨胀率达到两位数字也不会导致更加严厉的信贷政策，尤其是在今年夏天的奥运会期间。但如果央行保持沉默，那么最近的事态可能会使形势更加恶化。过去两年来，中国一直努力使其经济年增长率从 11% 到 12% 下降到 8% 或 9%。即使这一变化也很难实现。如果通胀继续上升，增长不很快放缓，那么软着陆 —— 在不引起经济衰退的情况下使经济活动减速 —— 几乎是不可能的。到目前为止，中国的通胀部分是由国内需求推动的，部分是由全球商品价格上升推动的。不过，瑞士信贷的亚洲首席经济学家陶冬 (音) 说，工资压力可能在今年下半年把国内价格推到一个更高的水平。陶说他认为对于中国经济来说有两种假定。一是对中国出口产品需求的降低可能会引发中国经济轻微的减速，可以缓解价格压力，允许经济有一个喘息的机会；另一个假定是高通胀将导致政府采取积极行动，如提高利率和允许人民币快速升值。繁荣的中国房地产市场将遭受打击，国内消费也将受到影响，还会影响到对世界其他地方产品的需求。对全球经济来说，这将是一个重要的发展阶段。中国经济年增长率急速下滑，比如说从 12% 下降到 4% 将会使全球经济损失 2800 亿美元，几乎等同于美国经济增长率从 3% 下降到 1% 所带来的影响。即使美国经济规模仍是中国经济规模的四倍，中国经济的快速增长仍将是非常令人怀念的。（2008 年 7 月 4 日《新快报》）

</description>
				
				<pubDate>Thu, 02 Apr 2026 06:35:00 +0800</pubDate>
				<link>/2026/04/02/ce.html</link>
                
                    <category>misc1</category>
                
                    <category>misc2</category>
                
                    <category>misc3</category>
                
                    <category>misc4</category>
                
				<guid>/2026/04/02/ce.html</guid>
			</item>
		
			<item>
				<title>被评为世界No.1，中国最安逸的城市，它排第二，没谁敢称第一</title>
				
				
					<description>
</description>
				
				<pubDate>Thu, 02 Apr 2026 06:02:00 +0800</pubDate>
				<link>/2026/04/02/yz.html</link>
                
                    <category>misc1</category>
                
                    <category>misc2</category>
                
                    <category>misc3</category>
                
                    <category>misc4</category>
                
				<guid>/2026/04/02/yz.html</guid>
			</item>
		
			<item>
				<title>战马</title>
				
				
					<description>
</description>
				
				<pubDate>Wed, 01 Apr 2026 00:00:00 +0800</pubDate>
				<link>/2026/04/01/fh.html</link>
                
                    <category>misc1</category>
                
                    <category>misc2</category>
                
                    <category>misc3</category>
                
                    <category>misc4</category>
                
				<guid>/2026/04/01/fh.html</guid>
			</item>
		
			<item>
				<title>近期LLM的部署与应用经历(3)</title>
				
				
					<description>这篇文章介绍了作者近期在LLM部署和应用方面的经历，主要包括以下几个方面：

首先，作者升级硬件，从单张RTX4090 48GiB升级到双路RTX4090 48GiB，并购买了TRX40+TR 3960X的主板套装，用于运行GPT-OSS模型。随后，作者尝试使用vLLM框架替换Ollama，并成功配置了GPT-OSS模型，达到了接近190Tps的性能。

其次，作者体验了DeepSeek 1M上下文模型，发现其在处理长上下文任务时表现出色，能够展现摘要无法捕捉的细节，并成功生成简历、分析人格等。

此外，作者还尝试使用DeepSeek重构Mabbs，并发现DeepSeek能够识别作者的博客信息，这表明训练样本中包含了作者的信息。

最后，作者在8GiB内存的MacBook Pro上运行了LFM2.5-1.2B-Thinking模型，并使用了Apollo软件，体验了其快速的推理速度和良好的思考能力。作者总结认为，AI的发展令人惊叹，软件优化使其在有限硬件环境下也能运行。</description>
				
				<pubDate>Sun, 01 Mar 2026 00:00:00 +0800</pubDate>
				<link>/2026/03/01/llm3.html</link>
                
                    <category>AI</category>
                
                    <category>LLM</category>
                
                    <category>模型部署</category>
                
                    <category>使用体验</category>
                
				<guid>/2026/03/01/llm3.html</guid>
			</item>
		
			<item>
				<title>在Google杀死XSLT之后的XML美化方案</title>
				
				
					<description>这篇文章讲述了Google计划弃用XSLT技术，以及作者对这一决定的调查和应对方案。Google基于XSLT用户占比低、库存在漏洞等原因，建议将其从Web标准中删除。作者发现许多用户依赖XSLT进行博客订阅美化，甚至将其作为博客框架。为了对抗这一趋势，有人创建了网站https://xslt.rip，并开发了Polyfill库，通过WASM方式保持XSLT功能。虽然Polyfill库需要额外引用JS代码，但作者已将其提交至CDNJS。随后，作者探讨了替代方案，包括使用纯CSS美化订阅源（由AI生成feed.css），以及混合XHTML的方式，通过添加XHTML命名空间来实现链接等功能，但这种方法会产生“不纯粹”的警告。文章最后总结，技术可能会消失，但总有其他技术可以解决问题，并强调了适应浏览器厂商决策的重要性。</description>
				
				<pubDate>Sun, 08 Feb 2026 00:00:00 +0800</pubDate>
				<link>/2026/02/08/xslt.html</link>
                
                    <category>XML</category>
                
                    <category>Feed</category>
                
                    <category>XSLT</category>
                
                    <category>美化</category>
                
				<guid>/2026/02/08/xslt.html</guid>
			</item>
		
			<item>
				<title>年终总结</title>
				
				
					<description>这篇文章介绍了作者对2025年的年终总结，主要表达了对自身状态的担忧和对未来的不确定感。作者认为自己在记忆和思考能力方面有所下滑，稳定性较低，且未能抓住资产保值的机会。同时，文章也记录了AI技术的飞速发展，以及自己博客内容与时代脱节的现象。尽管对未来感到迷茫，作者仍然抱有一丝希望，期望在2026年做出正确的选择，避免陷入危险。</description>
				
				<pubDate>Thu, 01 Jan 2026 00:00:00 +0800</pubDate>
				<link>/2026/01/01/summary.html</link>
                
                    <category>总结</category>
                
				<guid>/2026/01/01/summary.html</guid>
			</item>
		
			<item>
				<title>在浏览器中运行Linux的各种方法</title>
				
				
					<description>这篇文章介绍了在浏览器中运行Linux的各种方法，从最初的纯JS虚拟机JSLinux，到后来的WASM虚拟机如v86、WebVM、WebCM，再到容器化方案container2wasm，以及直接将Linux内核编译为WASM的方案。作者详细对比了这些方案的优缺点，包括性能、兼容性、功能和开发难度。文章还提到了模仿Linux环境的WebContainers和JupyterLite，并最终认为虚拟机方案更靠谱，但对WASM的未来充满期待。作者最后表示，博客上添加类似功能的计划还在考虑中，目前主要分享了各种方法的探索过程。</description>
				
				<pubDate>Mon, 01 Dec 2025 00:00:00 +0800</pubDate>
				<link>/2025/12/01/linux.html</link>
                
                    <category>浏览器</category>
                
                    <category>Linux</category>
                
                    <category>虚拟机</category>
                
                    <category>WASM</category>
                
				<guid>/2025/12/01/linux.html</guid>
			</item>
		
			<item>
				<title>让博客永恒的探索</title>
				
				
					<description>这篇文章讲述了作者为了提高博客的可靠性，探索利用被滥用的Git平台进行博客镜像的想法和实践。作者发现一些Git实例存在大量空仓库和异常用户，怀疑是SEO公司滥用，因此决定利用这些平台进行博客镜像备份，以应对平台倒闭或数据丢失的风险。作者选择Gitea和Forgejo平台作为目标，编写脚本自动注册账号并导入博客仓库，实现了自动化镜像分发。作者也意识到此类平台的稳定性存在不确定性，并思考了“量”和“质”两种方式确保博客永恒性的优劣，最终认为建立一个活跃的、自动执行维护操作的网络可能更有效。文章最后展示了作者创建的Git镜像列表，并表达了对博客永恒性的思考。</description>
				
				<pubDate>Sat, 01 Nov 2025 00:00:00 +0800</pubDate>
				<link>/2025/11/01/mirrors.html</link>
                
                    <category>Git</category>
                
                    <category>Gitea</category>
                
                    <category>镜像</category>
                
                    <category>Forever</category>
                
				<guid>/2025/11/01/mirrors.html</guid>
			</item>
		
			<item>
				<title>一次找回GitHub上被删除仓库的经历</title>
				
				
					<description>这篇文章讲述了作者通过GitHub的Fork特性找回一个被删除的Brainfuck可视化演示仓库的经历。由于原仓库和作者主页都已消失，作者推测GitHub在Fork时会共享对象库，只要有任意一个Fork仓库存在，GitHub就会保留所有对象，从而可以通过找到一个Fork仓库的最新提交Hash值来还原目标仓库。作者通过Linux内核仓库的Fork进行验证，随后在互联网档案馆上找到目标仓库的Fork以及其Hash值，最终通过Git命令将本地仓库的HEAD指针指向目标提交，成功恢复了该仓库的代码，并将其部署到自己的GitHub Pages上。最后，作者发现Software Heritage组织会保存所有代码，因此在遇到类似情况时可以直接通过该平台进行查找。</description>
				
				<pubDate>Sun, 12 Oct 2025 00:00:00 +0800</pubDate>
				<link>/2025/10/12/recover.html</link>
                
                    <category>GitHub</category>
                
                    <category>Git</category>
                
                    <category>代码恢复</category>
                
                    <category>软件存档</category>
                
				<guid>/2025/10/12/recover.html</guid>
			</item>
		
			<item>
				<title>关于ZIP Quine与自产生程序的探索</title>
				
				
					<description>这篇文章主要介绍了作者在博客部署过程中，对ZIP Quine（自包含压缩包）和自产生程序的探索过程。作者起初想利用压缩包实现离线浏览，但遇到了压缩包不包含自身的问题。随后，作者回顾了ZIP Quine的原理，如droste.zip，以及如何通过DEFLATE压缩算法的LZ77编码实现自包含。作者尝试了Russ Cox的方案，但发现由于压缩格式限制，实际操作中存在数据容量的限制，无法存下整个博客。尽管如此，作者还是研究了嵌套循环的ZIP Quine，如Ruben Van Mello的论文中所描述的，尽管空间仍然有限。探索过程中，作者还学习了自产生程序（Quine）的概念，包括其实现原理和各种编程语言中的例子。作者最后感慨，探索过程中的收获比原本的目标更重要。</description>
				
				<pubDate>Mon, 01 Sep 2025 00:00:00 +0800</pubDate>
				<link>/2025/09/01/quine.html</link>
                
                    <category>压缩包</category>
                
                    <category>Quine</category>
                
                    <category>自产生程序</category>
                
                    <category>Quine Relay</category>
                
				<guid>/2025/09/01/quine.html</guid>
			</item>
		
	</channel>
</rss>