tokenpocket官网版|alce

作者: tokenpocket官网版
2024-03-07 16:59:05

GitHub - princeton-nlp/ALCE: [EMNLP 2023] Enabling Large Language Models to Generate Text with Citations. Paper: https://arxiv.org/abs/2305.14627

GitHub - princeton-nlp/ALCE: [EMNLP 2023] Enabling Large Language Models to Generate Text with Citations. Paper: https://arxiv.org/abs/2305.14627

Skip to content

Toggle navigation

Sign in

Product

Actions

Automate any workflow

Packages

Host and manage packages

Security

Find and fix vulnerabilities

Codespaces

Instant dev environments

Copilot

Write better code with AI

Code review

Manage code changes

Issues

Plan and track work

Discussions

Collaborate outside of code

Explore

All features

Documentation

GitHub Skills

Blog

Solutions

For

Enterprise

Teams

Startups

Education

By Solution

CI/CD & Automation

DevOps

DevSecOps

Resources

Learning Pathways

White papers, Ebooks, Webinars

Customer Stories

Partners

Open Source

GitHub Sponsors

Fund open source developers

The ReadME Project

GitHub community articles

Repositories

Topics

Trending

Collections

Pricing

Search or jump to...

Search code, repositories, users, issues, pull requests...

Search

Clear

Search syntax tips

Provide feedback

We read every piece of feedback, and take your input very seriously.

Include my email address so I can be contacted

Cancel

Submit feedback

Saved searches

Use saved searches to filter your results more quickly

Name

Query

To see all available qualifiers, see our documentation.

Cancel

Create saved search

Sign in

Sign up

You signed in with another tab or window. Reload to refresh your session.

You signed out in another tab or window. Reload to refresh your session.

You switched accounts on another tab or window. Reload to refresh your session.

Dismiss alert

princeton-nlp

/

ALCE

Public

Notifications

Fork

24

Star

362

[EMNLP 2023] Enabling Large Language Models to Generate Text with Citations. Paper: https://arxiv.org/abs/2305.14627

License

MIT license

362

stars

24

forks

Branches

Tags

Activity

Star

Notifications

Code

Issues

2

Pull requests

0

Actions

Projects

0

Security

Insights

Additional navigation options

Code

Issues

Pull requests

Actions

Projects

Security

Insights

princeton-nlp/ALCE

This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.

 mainBranchesTagsGo to fileCodeFolders and filesNameNameLast commit messageLast commit dateLatest commit History31 Commitsassetsassets  configsconfigs  human_evalhuman_eval  paperpaper  promptsprompts  toolstools  .gitignore.gitignore  LICENSELICENSE  README.mdREADME.md  download_data.shdownload_data.sh  eval.pyeval.py  post_hoc_cite.pypost_hoc_cite.py  retrieval.pyretrieval.py  run.pyrun.py  searcher.pysearcher.py  utils.pyutils.py  View all filesRepository files navigationREADMEMIT licenseEnabling Large Language Models to Generate Text with Citations

*: ALCE is pronounced as /elk/ as ALCE is the Latin word for elk (Europe) or moose (North America).

This repository contains the code and data for paper Enabling Large Language Models to Generate Text with Citations.

In this paper, we propose ALCE, a benchmark for Automatic LLMs' Citation Evaluation.

ALCE contains three datasets: ASQA, QAMPARI, and ELI5.

We provide automatic evaluation code of LLM generations around three dimensions: fluency, correctness, and citation quality.

This repository also includes code to reproduce the baselines in our paper.

Quick Links

Requirements

Data

Code Structure

Reproducing Baselines

Evaluation

Human Evaluation

Bug or Questions

Citation

Requirements

Please install the latest versions of PyTorch (torch), HuggingFace Transformers (transformers), HuggingFace Accelerate (accelerate), and the OpenAI API package (openai). This codebase is tested on

torch==2.1.0.dev20230514+cu118, transformers==4.28.1, accelerate==0.17.1, and openai==0.27.4 with Python 3.9.7.

Data

You can download datasets (along with retrieval results) by running the following command:

bash download_data.sh

All the data will be stored in data/. Our data included top-100 DPR/GTR retrieved results for ASQA and QAMPARI, and top-100 BM25 retrieved results for QAMPARI. We also provide reranked oracle retrieval results, where top-5 passages can achieve the same recall as the original top-100 recall.

Retrieval

You can reproduce the passage retrieval step with the following command:

python retrieval.py --data {path/to/data} --retriever {bm25/gtr} --output_file {path/to/output}

There are additional packages required for the retrieval steps.

Specifically, you need to install pyserini==0.21.0(their github repo is helpful) and sentence-transformers==2.2.2.

For the BM25 retrieval over Common Crawl using Sphere, you must first download the index from the Sphere repo, and set the environmental variable BM25_SPHERE_PATH to the path of the downloaded index.

Specifically, you can use the following command:

wget -P faiss_index https://dl.fbaipublicfiles.com/sphere/sphere_sparse_index.tar.gz

tar -xzvf faiss_index/sphere_sparse_index.tar.gz -C faiss_index

export BM25_SPHERE_PATH=$PWD/faiss_index

It's important to note that given the large size of the corpus, this step is extremely expensive and time-consuming. We found that larger CPU memory tends to help with the speed.

For GTR, we first build an index using the DPR wikipedia snapshot, which you can obtain using the download script from the DPR repo, and then setting the environmental variable DPR_WIKI_TSV to the path of the tsv file.

Specifically, you can use the following command:

wget https://dl.fbaipublicfiles.com/dpr/wikipedia_split/psgs_w100.tsv.gz

gzip -xzvf psgs_w100.tsv.gz

export DPR_WIKI_TSV=$PWD/psgs_w100.tsv

Then, you want to set GTR_EMB to the path of the GTR embeddings of the Wikipedia corpus, and running the retrieval script for the first time will automatically build and save the index.

Building the dense index can be expensive for GPU memory (we use 80GB GPUs for this) and time-consuming; the entire index will take about 31GB.

If you find this step to be too expensive, you can also download it using:

wget https://huggingface.co/datasets/princeton-nlp/gtr-t5-xxl-wikipedia-psgs_w100-index/resolve/main/gtr_wikipedia_index.pkl

export GTR_EMB=$PWD/gtr_wikipedia_index.pkl

To reproduce the DPR retrieval, we refer the DPR repo, which we used the original DPR checkpoint trained on NQ.

Code Structure

run.py: run file to reproduce our baseline generations.

eval.py: eval file to evaluate generations.

prompts: folder that contains all prompt files.

configs/: folder that contains all config files to reproduce baselines.

tools/: misc code (generate summaries/snippets, reranking, etc.)

Reproducing Baselines

You can reproduce baselines from our paper by

python run.py --config configs/{config_name}

You can also overwrite any arguments in the config file or add new arguments simply through command line:

python run.py --config configs/{config_name} --seed 43 --model vicuna-13b

The naming of config files follow the rule of {LLM}_{#demos and #passages}_{retriever}_{method}.yaml. Method names include:

default corresponds to the Vanilla model in our paper.

summary corresponds to the Summary model.

extraction corresponds to the Snippet model.

interact_doc_id corresponds to the Interact model.

interact_search corresponds to the InlineSearch model.

closedbook corresponds to the ClosedBook model.

Our code support both OpenAI API and offline HuggingFace models:

For OpenAI models (for example, ChatGPT), you need to set the environment variable OPENAI_API_KEY and OPENAI_ORG_ID. If you are using the Azure OpenAI API, you need to set the environment variable of OPENAI_API_KEY and OPENAI_API_BASE. You also need to add the flag --azure.

Note that in Azure OpenAI API, ChatGPT's name is different and you should set it by --model gpt-35-turbo.

For the open-source models, you should set the model name equal to the input of HuggingFace models' .from_pretrained method. This could either be a local directory (e.g. for the older LLaMA models) or a path to the HuggingFace hub.

For detailed argument usage, please refer to run.py.

Model output along with gold answers and run configs will be stored in a json file in result/.

Post-hoc citation

For closed-book models, one can use post_hoc_cite.py to add citations in a post-hoc manner (using GTR-large). To run post-hoc citation, execute

python post_hoc_cite.py --f result/{RESULT JSON FILE NAME} --external_docs data/{CORRESPONDING DATA}

The output file with post-hoc citations will be stored in result/, with a suffix post_hoc_cite.gtr-t5-large-external.

Evaluation

ACLE evaluation is implemented in eval.py.

For ASQA, use the following command

python eval.py --f {path/to/result/file} --citations --qa --mauve

For QAMPARI, use the following command

python eval.py --f {path/to/result/file} --citations

For ELI5, use the following command

python eval.py --f {path/to/result/file} --citations --claims_nli --mauve

The evaluation result will be saved in result/, with the same name as the input and a suffix .score.

Human Evaluation

The results from our human evaluation (Section 6) are located under the directory human_eval.

Both the data and the analysis are available, please refer to the directory for details.

Bug or Questions?

If you have any questions related to the code or the paper, feel free to email Tianyu (tianyug@cs.princeton.edu). If you encounter any problems when using the code, or want to report a bug, you can open an issue. Please try to specify the problem with details so we can help you better and quicker!

Citation

Please cite our paper if you use ALCE in your work:

@inproceedings{gao2023enabling,

title={Enabling Large Language Models to Generate Text with Citations},

author={Gao, Tianyu and Yen, Howard and Yu, Jiatong and Chen, Danqi},

year={2023},

booktitle={Empirical Methods in Natural Language Processing (EMNLP)},

}

About

[EMNLP 2023] Enabling Large Language Models to Generate Text with Citations. Paper: https://arxiv.org/abs/2305.14627

Resources

Readme

License

MIT license

Activity

Custom properties

Stars

362

stars

Watchers

10

watching

Forks

24

forks

Report repository

Releases

No releases published

Packages

0

No packages published

Contributors

5

Languages

Python

99.7%

Shell

0.3%

Footer

© 2024 GitHub, Inc.

Footer navigation

Terms

Privacy

Security

Status

Docs

Contact

Manage cookies

Do not share my personal information

You can’t perform that action at this time.

如何为GPT/LLM模型添加额外知识? - 知乎

如何为GPT/LLM模型添加额外知识? - 知乎首页知乎知学堂发现等你来答​切换模式登录/注册机器学习自然语言处理GPTLLMChatGPT如何为GPT/LLM模型添加额外知识?比如我希望用gpt做一个产品客服,我怎样让gpt学习到产品信息呢?一个方案是直接把产品信息当做输入,但是gpt4有32k的限制。更通用地来说,怎样让g…显示全部 ​关注者1,541被浏览509,296关注问题​写回答​邀请回答​好问题 36​2 条评论​分享​91 个回答默认排序知乎用户​1、retrieve-then-generate:类ChatGPT Retrieval Plugin的技术方案核心:根据 输入query 检索本地/私有数据库/文档中的文档片段(检索可以是文本检索或者基于向量的检索),作为扩充的上下文 context,通过 prompt template 组合成一个完整的输入,继而调用模型生成response。简版工作流:chunk -> index -> retrieve -> construct input -> LLM推荐开源工具: (1)OpenAI 的官方插件:ChatGPT Retrieval Plugin(2)llama-index:https://github.com/jerryjliu/llama_index,提供了一个本地/私有数据收集(ingestion)和数据索引(indexing)的解决方案,构建起外部数据和 LLM 之间的接口。一个利用 llama-index 定制个人论文检索的示例:llama_index/examples/paul_graham_essay at main · jerryjliu/llama_index。(在没有OpenAI API的情况下,llama-index 支持调用自定义的 LLM。)(3)LangChain:https://github.com/hwchase17/langchain,也是为了更好的构建外部数据、其他应用与 LLM 进行交互的接口层框架。LangChain应用参考示例:GPT-4 & LangChain——PDF聊天机器人-地表最强全文搜索。llama-index 和 LangChain 可以组合使用,LangChain 中提供了 面向不同任务的 prompt template 和 prompt chain。2、其他回答中也提到了基于 fine-tuning 的方式,相比于第一种方案,基于 fine-tuning 的方式需要额外的训练开销,同时还是会受限于LLM的最大长度限制。“让 LLM 具备理解定制数据库的能力”是很有挑战的目标,同时也会有很多应用场景。(简版回答,后续再来扩充)发布于 2023-04-11 22:06​赞同 401​​15 条评论​分享​收藏​喜欢收起​HeptaAI机器学习下的新晋答主​ 关注泻药。最近都在讨论大模型怎么结合外部知识,但是都没人关注怎么用外部知识让模型的生成变得更准确。其实让LLM更准确,只要找到模型生成的对应的外部知识即可。如果生成答案的时候不结合外部知识,就可以用post-hoc方法去用外部知识修改模型生成的答案;如果生成答案的时候结合了外部知识,则要想办法让外部知识不影响模型生成答案的流畅度,同时提高模型的准确性。这两种方法各有优劣。下面的三篇文章详细地探讨了这个问题。第一篇分析了最火的几个生成式搜索引擎(如bing)的现状,并且正式定义了模型引用文章的任务。第二篇提出了结合外部知识来生成带有引用的回答的方法,也就是LLM的自动引用机制。第三篇提出了先脱离外部知识生成回答,再使用外部知识对生成的回答进行纠正的方法,也就是LLM的自我纠正方法。让我们一篇一篇读过来。人工评估:《评估生成搜索引擎的可验证性》论文地址:https://arxiv.org/pdf/2304.09848.pdf生成式搜索引擎直接生成对用户查询的响应以及内嵌引用。可信赖的生成搜索引擎的先决条件是可验证性,即系统应该引用全面(高引用召回率;所有陈述都得到引用的完全支持)和准确(高引用精度;每个引用都支持其相关陈述)。我们进行人工评估,以审核四种流行的生成搜索引擎在不同场景下的性能(Bing Chat、NeevaAI、perplexity.ai 和 YouChat)。我们发现,现有的生成搜索引擎的响应是流畅的并且看起来信息丰富,但经常包含不受支持的陈述和不准确的引用:平均而言,只有 51.5% 的生成句子得到引用的完全支持,只有 74.5% 的引用支持其相关句子。我们认为,对于可以作为信息搜索用户主要工具的系统来说,这些结果非常低,尤其是考虑到它们的可信度。我们希望我们的结果进一步推动可信赖的生成搜索引擎的发展,并帮助研究人员和用户更好地了解现有商业系统的缺点。换句话说,引用有的不全(理解为citation recall),有的不准确(理解为citation precision)。本文介绍了人工评估这些生成搜索引擎的结果。图 1 一个搜索引擎产生的带有嵌入式引用的例子评价指标本文评价了四个指标Fluency 流畅性Perceived Utility 有用性Citation Recall 全面性Citation Precision 准确性如何建模这个问题?文章给出了评价指标的正式定义。观察图 1,我们发现引用是嵌入在回答中的。我们将用户的查询表示为 q ,将机器的回答表示为 r 。我们将机器的回答拆分为一个声明集 S=\{s_1,\cdots,s_n\} ,然后对于每个声明 s_i ,我们构造一个可能存在的引用集 C_i=\{c_{i1}, c_{i2}, \cdots, c_{ik}\} 。对于每个引用 c_{ij} ,存在两个信息:URL表示为 u_{ij} ,内容表示为 p_{ij} 。在进行评估的时候,我们希望声明集 S 越完整越好,但是必须是check-worthy的。也就是说,非常明显的事实不需要加入声明集。下面是一个评估recall和precision的metric的展示:图 2 标注metric例子为什么第二张图和第三张图的recall是一样的呢?因为所有check-worthy的statement拼起来形成的set S 会作为recall的分母,而评估者认为第二条statement并没有被它的citation支持,因此分数还是只能算一条的。因此recall的分子只能包含被支持的句子。precision更简单一点,就是支持statement的citation总量除以所有的citation总量。有了recall和precision,可以获得F-1分数:数据集文章标注用到的数据集如下:图 3 数据集与例子结果fluency结果:生成的响应很流畅并且看起来很有帮助。表 3 展示了生成搜索引擎对我们每个查询分布的响应的流畅性,表 4 展示了感知效用。汇总所有系统和所有响应的注释器评分,流利度平均评分为 4.48,感知效用平均评分为 4.50,这表明注释器判断生成的响应流畅且有助于回答用户的输入查询。比较生成搜索引擎之间的流畅性和感知效用。比较生成搜索引擎之间的流畅度和感知效用评分(汇总所有响应),我们看到 Bing Chat 获得最低的流畅度/感知效用评分 (4.40 / 4.34),其次是 NeevaAI (4.43 / 4.48),perplexity.ai ( 4.51 / 4.56) 和 YouChat (4.59 / 4.62)。比较查询分布的流畅性。比较不同查询分布的平均流利度评分,我们看到具有长答案的 NaturalQuestions 查询(即维基百科上存在一定长度的提取答案)和非 NaturalQuestions 分布(分别为 4.50 和 4.47)之间的评分相似。比较 NaturalQuestions 子分布之间的平均流利度评分,我们看到生成的对具有简短提取答案的查询的响应通常比对只有长答案的查询(4.46)或没有长答案的查询(4.46)的响应更流利(4.55),也许是因为对简短答案的问题的回答通常较短,而且通常只需要事实知识。一个值得注意的离群分布是 NaturalQuestions 查询,它具有表格类型的长答案而没有简短答案,其中系统响应非常不流畅(跨系统的平均值为 4.36,而所有查询分布的平均值为 4.48)。这些具有挑战性的查询通常需要跨表格单元格或检索到的来源汇总信息,因为缺少简短答案意味着没有一个维基百科表格单元格可以直接回答问题(例如,查询“碧昂丝没有命运的孩子有多少格莱美奖”)。当检索到的网页不包含对查询的明确提取答案,但包含看似相关的事实(例如,有关 Destiny Child 的第一个格莱美奖的信息,或 Beyonce 的职业格莱美奖总数),生成的响应可能会成为一个生硬的聚集来自各种来源的陈述,降低了整体流畅度。比较跨查询分布的感知效用。另一方面,不同查询分布之间的感知效用可能有很大差异。与非 NaturalQuestions 查询 (4.43) 相比,包含长答案 (4.59) 的 NaturalQuestions 查询的感知效用要高得多。比较不同的 NaturalQuestions 子分布,我们发现感知效用对于具有简短答案的查询 (4.62) 最高,其次是只有长答案的查询 (4.55),最后是没有长(或短)答案的查询(4.52)。总体而言,随着查询需要更长形式和更少提取的答案(例如,具有简短答案的事实型 NaturalQuestions 查询与 ELI5 查询相比,感知效用会降低)。recall结果:precision结果:现有的生成搜索引擎往往引用不全面或不正确。当对所有系统进行平均时,只有 51.5% 的生成语句得到引用(召回)的完全支持,只有 74.5% 的引用完全支持其相关语句(精度)。我们认为,对于正在迅速成为回答用户查询的流行工具并且已经拥有数百万用户的系统来说,这些结果低得令人无法接受,尤其是考虑到生成的响应通常显得信息丰富且有用。比较生成搜索引擎之间的引用召回率和精确率。不同的生成搜索引擎之间的引文召回率和精确率差异很大。平均而言,与 NeevaAI (67.6)、Bing Chat (58.7) 和 YouChat (11.1) 相比,perplexity.ai 的平均召回率最高 (68.7)。另一方面,Bing Chat 的准确率最高 (89.5),其次是 perplexity.ai (72.7)、NeevaAI (72.0) 和 YouChat (63.6)。召回率最高和最低的系统(perplexity.ai vs. YouChat)之间的差距接近 58%,精度最高和最低的系统之间的差距接近 25%(Bing Chat vs. YouChat)。比较跨查询分布的引用召回率。修改评估查询分布似乎比引用精度更能影响引用召回率。例如,具有长答案的 NaturalQuestions 查询和非 NaturalQuestions 查询之间的引文召回率差距接近 11%(分别为 58.5 和 47.8)。同样,NaturalQuestions 查询有和没有简短答案的引文召回率差异接近 10%(简短答案查询为 63.4,只有长答案查询为 53.6,没有长答案或简短答案查询为 53.4)。我们假设引文召回是由检索到的网页的相关性驱动的。在没有直接回答输入用户查询的检索证据的情况下,系统会生成未经引用证实的陈述,从而导致较低的召回率。例如,在对开放式 AllSouls 论文问题(平均召回率为 44.3)进行评估时,生成搜索引擎在引用召回率方面遇到困难,因为这些查询在互联网上通常没有提取答案。比较查询分布中的引用精度。具有长答案的 NaturalQuestions 查询的精度高于非 NaturalQuestions 分布(分别为 76.1 和 72.3)。检查单个查询分布的结果,生成搜索引擎在对具有段落答案类型的 NaturalQuestions 查询进行评估时具有最高的精度(当存在简短答案时精度为 81.5,当仅存在长答案时精度为 78.7)。另一方面,当系统在 AllSouls 开放式论文问题 (67.8) 和达芬奇辩论查询 (70.3) 上进行评估时,引用精度最低。比较 NaturalQuestions 子分布,具有简短答案的查询的平均系统精度 (77.4) 高于仅具有长答案 (74.8) 或没有长答案 (73.5) 的查询。引文召回率和精确率与流利度和感知效用成反比:一个定性的结果:7. 生成搜索引擎经常从引用的网页复制或严密解释。为了更好地理解生成搜索引擎如何使用引用来支持其响应,我们分析了生成的语句与其支持引用的网页之间的相似性。对于为其相关陈述提供全部或部分支持的引文,注释者被要求通过复制粘贴所引用网页中支持其判断的最少句子集(如果存在任何此类句子)来提供证据。我们采用具有提供全部或部分支持的相关引用的生成语句,并计算生成语句和引用证据之间的 BLEU(Papineni 等人,2002 年)和 BERTScore(Zhang 等人,2020 年)。对于具有多个关联引文的陈述,我们采用与任何关联引文证据的最大相似性,如下表所示8. 从 Internet 检索时,提取非常有效。结合外部知识时生成:《使用LLM生成带有citation的text》论文地址:Enabling Large Language Models to Generate Text with Citations大型语言模型 (LLM) 已成为一种广泛使用的信息搜索工具,但它们生成的输出很容易产生幻觉。在这项工作中,我们的目标是使 LLM 能够生成带有引用的文本,提高它们的事实正确性和可验证性。现有工作主要依赖于商业搜索引擎和人工评估,因此很难复制和比较不同的建模方法。我们提出 ALCE,这是自动 LLM 引文评估的第一个基准。 ALCE 收集各种问题和检索语料库,并需要构建端到端系统来检索支持证据并生成带有引用的答案。我们从三个维度(流畅性、正确性和引用质量)构建了自动指标,并证明了它们与人类判断的强相关性。我们对最先进的 LLM 和新颖的提示策略进行的实验表明,当前的系统有很大的改进空间——例如,在 ELI5 数据集上,即使是最好的模型也有 49% 的代缺乏完整的引用支持。我们广泛的分析进一步突出了有前途的未来方向,包括开发更好的检索器、推进长上下文 LLM 以及提高从多个来源综合信息的能力。 评估指标准确度评估:引用质量评估:自动评估方法我们介绍了 ALCE,这是第一个可重复的基准,用于通过引用自动评估 LLM 的世代。 ALCE 假设一个自然语言问题和一个检索语料库,需要构建端到端系统从语料库中检索相关段落,生成对问题的回答,并引用相应的支持段落。我们收集了三个涵盖不同类型问题和语料库的数据集——ASQA(Stelmakh 等人,2022 年)、QAMPARI(Rubin 等人,2022 年)和 ELI5(Fan 等人,2019 年)——如下表。与之前的基准(Lee 等人,2019;Bohnet 等人,2022)不同,ALCE 评估长文本生成,侧重于自动评估引文质量,并允许为单个陈述引用多个段落。我们设计了三个维度的自动评估方法:流畅性、正确性和引用质量。具体来说,我们使用 MAUVE (Pillutla et al., 2021) 来测量流利度,采用自然语言推理 (NLI) 模型 (Honovich et al., 2022) 来测量引用质量,并为每个数据集提出专门的正确性评估。我们展示了这三个维度如何共同促成稳健的评估,防止系统利用捷径。此外,我们进行人工评估并证明与我们的自动指标有很强的相关性。Baseline方法基本方法:InlineSearch方法:本文主要的贡献是使用了几个prompt方法取得了不错的结果,然后设计了一个automatic evaluation的方法来进行评估。先生成回应后结合外部知识修改回应:《研究和修改语言模型所说的内容,使用语言模型》语言模型 (LM) 现在在许多任务中表现出色,例如问答、推理和对话。但是,它们有时会生成不受支持或具有误导性的内容。用户无法轻易确定他们的输出是否可信,因为大多数 LM 没有任何内置机制来归因于外部证据。为了在保留最新生成模型的所有强大优势的同时启用归因(attribution),我们提出了 RARR(使用研究和修订的改造归因),该系统 1) 自动为任何文本生成模型的输出找到归因,以及 2) 后期编辑输出以修复不受支持的内容,同时尽可能保留原始输出。当应用于一组不同的生成任务的几个最先进的 LM 的输出时,我们发现 RARR 显着改善了归因,同时在其他方面比以前探索的编辑模型更大程度地保留了原始输入。此外,RARR 的实施只需要少量训练示例、大型语言模型和标准网络搜索。模型方法如下:更详细的模型说明:prompt:结果不错:这个模型是把相关内容丢到搜索引擎里面找,然后去纠正原文产生的问题,属于post-hoc方法。发布于 2023-06-02 17:52​赞同 227​​2 条评论​分享​收藏​喜欢

2022年汽车轻量化会议,2022年汽车轻量化展览,2022江苏汽车轻量化会议暨展览 - 2022年(第十五届)国际汽车轻量化大会暨展览会,2020年汽车轻量化会议

>

2022年汽车轻量化会议,2022年汽车轻量化展览,2022江苏汽车轻量化会议暨展览 - 2022年(第十五届)国际汽车轻量化大会暨展览会,2020年汽车轻量化会议

  Japanese  English  中文

切换导航

首页

新闻中心

大会新闻合作媒体

组织机构

组织机构

大会

发展历程大会介绍指导委员会专家委成员会议议题会议日程轻量化设计奖创新成果奖轻量化车身会议

展览会

展览介绍展区分布参展流程展商名录展位预定观众登记

精彩回顾

展台缤纷呈现大会精彩回顾

赞助合作

赞助合作

资料下载

资料下载

联系我们

联系我们交通指南酒店预订

REGISTER

注册参会

欢迎大家踊跃参加会议!

现在注册

RESERVE

展位预定

报名参展轻量化行业全球盛会!

现在预定

APPLICATION

轻量化设计奖报名

优秀设计奖报名中!

现在申请

LOGIN

创新成果奖报名

让您的企业成为核心焦点!

现在进入

ENROLL

观众登记

及时了解行业最新产品及资讯!

现在登记

ALCE 2023

由中国汽车工程学会、江苏省科学技术协会、汽车轻量化技术创新战略联盟和扬州市人民政府共同主办的第十六届国际汽车轻量化大会暨展览会(ALCE 2023)将于2023年9月20-22日于扬州国际展览中心召开。本次大会聚焦汽车轻量化前沿技术动态、产业技术路线及产业化中亟待突破的新材料、新工艺、新结构、新装配等行业技术热点、难题和系统解决方案。本届大会将更加专注专业性与国际化

新闻中心

NEWS

关于举办2023第十六届国际汽车轻量化大会暨展览会的通知

• 【延期紧急通知】关于2021(第十五届)国际汽车轻量化大会暨展览会延期举办的通知

• 重磅!2021(第十五届)国际汽车轻量化大会暨展览会的第三轮通知发布!

• 关于举办2021(第十五届)国际汽车轻量化大会暨展览会的第二轮通知

• 关于举办2020 ALCE的第三轮通知

• 关于举办2020 ALCE的第二轮通知

• 官宣:扬州汽车产业规模2020年将突破2000亿元

• 第十四届国际汽车轻量化大会暨展览会正式启动中

• 中国轻量化车身会议助力汽车产业转型升级,2019汽车轻量化大会在扬闭幕

查看更多新闻>>

大会

CONFERENCE OVERALL

700+家

参会企业

100+个

国家/地区

100+家

参会高校

2000+名

参会嘉宾

100+家

媒体矩阵

了解更多

演讲

我们在倾听

2021年(第十五届)国际汽车轻量化大会暨展览会(ALCE2021)精彩纷呈,特邀轻量化行业精英人士,为大家带来热情洋溢的演讲,并对当前和未来趋势,将对行业在创建美好未来方面发挥重要作用提供独到见解。

注册参会

查看2022议程概览

成为2022演讲嘉宾

2021年(第十五届)国际汽车轻量化大会暨展览会(ALCE2021)提供前所未有的机会,让您能够与志同道合的专业人士面对面交流。若您有意成为汽车轻量化大会的演讲嘉宾,请使用下方链接提交演讲提案。

专家委成员

指导委员会

指导委员会(排名随机,不分前后)

毛新平 中国工程院院士

蒋士成 中国工程院院士

潘复生 中国工程院院士

吕 坚 香港中文大学副校长、法国国家技术科学院院士

张进华 中国汽车工程学会秘书长

侯福深 中国汽车工程学会副秘书长、轻量化联盟秘书长

刘国元 东风汽车副总工程师、轻量化联盟副理事长

林 逸 中国汽车工程学会会士

王莉君 长安欧尚副总经理

邢如飞 华晨汽车副总裁

武锡斌 福田汽车副总经理

杨子发 北汽新能源院长

吴晓光 河南省汽车工程学会理事长

王小峰 陕汽集团副总经理

郑 虹 一汽新能源开发院材料与轻量化所所长

高立新 奇瑞新能源总经理

唐程光 江淮汽车常务副主任

李书利 长城汽车副主任

张洪波 唐钢公司副总经理

展览会

THE FAIR

汽车轻量化展览会概况

随着社会的不断进步,人们的生活水平也在不断提升,汽车的需求也比之前增加了许多,同时汽车的保有量也越来越大。随着各国推行强制汽车制造商降低汽车油耗的政策,汽车轻量化也就成为了各大车企的一个重要突破口。在《中国制造2025》中关于汽车发展的整体规划中也强调了“轻量化仍然是重中之重”,“轻量化”已然成为国家的重要战略,越来越多的研究机构和汽车行业将其研究工作的重点放在汽车轻量化上。大会设有15000平方米展区,在整车/车身展区、先进材料展区、零部件展区、工艺装备展区基础上,将首次设立涵盖车门防撞梁、轮毂轻量化、座椅骨架、车门板、转向节/摆臂、三电系统轻量化、异种材料连接和轻量化概念设计的8个个性化展区以及国家重点专项成果展展区、高校成果展展区。

了解更多

预定展位 抢占先机

2021汽车轻量化展览会,展示最新技术、最具创新力的产品和服务以及影响整个轻量化行业未来的重要理念。

查看展商名录

汽车轻量化展览会将为您留一席之地。 

立即与我们联系,获取参加2021年展会的最新资讯,以备参展所需。

成为2022参展商

参观登记

参展企业

500+

知名企业

参展面积

15000+

8大展区

参观人数

20000+

专业观众

新品发布

500+

产品及解决方案

上届回顾

ABOUT ALCE

黄金历程十四载

国际汽车轻量化大会暨展览会聚焦汽车轻量化产业化应用关键技术及相关产品,由中国汽车工程学会、汽车轻量化技术创新战略联盟联合主办,历时14年已打造成为专业性、权威性、国际化和前瞻性的国际汽车轻量化交流与对接平台,其技术性、专业性、权威性深获国内外汽车行业的高度认可。

回顾 ALCE 2020,大咖齐聚扬州,精彩纷呈。参会人数超1200人,参会企业400余家。同时有来自美国、英国、德国、日本、韩国、印度等20多个国家和地区的200余位国外代表参会。展望 ALCE 2021,再次相聚扬州,我们将秉持初心,为大家呈现一场新理念、新技术、新合作的盛宴,敬请期待!

大会精彩回顾 展台缤纷呈现

展商推荐

THE EXHIBITORS TO RECOMMEND

查看更多>>

支持媒体

SUPPORT MEDIA

查看更多>>



联系我们

86-010-60565601(参展咨询)

86-010-50911049(参会咨询)

更多>>

主办单位

中国汽车工程学会

江苏省科学技术协会

汽车轻量化技术创新战略联盟

扬州市人民政府

承办单位

国汽(北京)汽车轻量化技术研究院有限公司

中信金属股份有限公司(车身会议)

恒兴国际会展集团有限公司

微信公众号

© 版权所有 恒兴国际会展集团有限公司

京ICP备16049515号-107 技术支持:Kejan

一键导航

一键拨号

中材电镜中心||论文阅读第八期:一种新的Al-Ce合金体系 - 知乎

中材电镜中心||论文阅读第八期:一种新的Al-Ce合金体系 - 知乎切换模式写文章登录/注册中材电镜中心||论文阅读第八期:一种新的Al-Ce合金体系中材电镜中心一家专业的电镜检测服务机构中材新材料研究院从事金属/非金属/薄膜/半导体/生物样品的TEM制样、TEM检测、TEM分析。同时提供晶体学/显微学等相关问题的咨询解答服务。助力科研事业走向更高、更远、更强。公众号论文链接https://doi.org/10.1016/j.msea.2022.142611论文简要由于Al11Ce3相的高稳定性,Al-Ce合金拥有理想的高温性能。Al11Ce3相的形态和尺寸在决定Al-Ce合金的硬化效果方面起着重要的作用。本文研究了Sc/Zr的加入对超共晶铸造的Al-Ce合金的微观结构、机械性能和热稳定性的影响。结果表明,Sc和Zr原子可以吸附在Al11Ce3相表面并控制其生长过程,同时降低原生Al11Ce3相尺寸。随着Sc/Zr总含量增加, 0.49wt%Sc-0.23wt%Zr合金的极限拉伸强度、屈服强度和伸长率与未改性的合金相比有明显的改善。溶解在基体中的Sc和Zr原子作为分解的固溶体,在热暴露后析出L12-Al3(Sc, Zr)相,这些相与Al基体保持完全一致,导致在300◦C和400◦C热暴露后,硬度增加。因此,Al-15Ce-(Sc-Zr)合金为可用于高温应用的工程材料开辟一个新的合金体系。本文的核心主要在两个部分:一、Sc/Zr的加入对富铈相的改变二、Al3(Sc,Zr)沉淀硬化作用对合金热稳定性的影响论文识图第一部分:Sc/Zr的加入对富铈相的改变图1. 不同Sc/Zr含量的Al-15Ce合金的截面照片:图1. 不同Sc/Zr含量的Al-15Ce合金的截面照片:(a)0Sc-0Zr;(b)0.13Sc-0.06Zr;(c)0.23Sc-0.10Zr;(d)0.49Sc-0.21Zr。图1显示了四种合金断面宏观结构,均为等轴晶,是初生相和共晶相的混合物,且随着Sc/Zr含量的增加,合金晶系明显被细化。图2. 不同Sc/Zr含量的Al-15Ce合金的SEM图像:图2. 不同Sc/Zr含量的Al-15Ce合金的SEM图像:(a-c)0Sc-0Zr;(d-f)0.13Sc-0.06Zr;(g-i)0.23Sc-0.10Zr;(j-l)0.49Sc-0.21Zr。表2:标记图2中:不同点的EDS分析结果表2:标记图2中:不同点的EDS分析结果由SEM图可知①存在两种Al11Ce13相,初生相以及共晶相,且初生相的平均长度远大于共晶相。②随着Sc/Zr总含量的增加,初生相在形态尺寸出现明显变化,共晶相也逐渐呈细纤维状。③在高Sc/Zr含量的合金中,共晶相有呈球形趋势,且在0.23 SC-0.10Zr合金和0.49 SC-0.21 Zr合金中,共晶相和α-Al基体几乎已完全成球形。④由表二Sc/Zr的原子比,得出合金形成了Al3(Sc, Zr)相。问题来了:已有SEM结论,还需要做透射电镜 (TEM)吗?答:有必要,TEM会在更微观的尺度下来进一步验证SEM结论,使论文更具有说服力!图4图4(a)TEM图像显示了0.23 Sc-0.16 Zr合金的初生相和共晶相;(b)和(c)分别显示了(a)中绿色和蓝色圈出的区域的SAED图案;(d)和(e)分别显示了(a)中A点和B点的EDS分析结果图5图5 (a, f) TEM图像和(b-e, g-j) Al11Ce3相的EDS面扫结果:(a-e) 0.10 Sc-0.06 Zr合金中的原生Al11Ce3相;(f-j) 0.10 Sc-0.06 Zr合金的共晶Al11Ce3相。由TEM结果可知① 存在两种形态不一的富铈相,一种几十微米的粗长块状,另一种几微米的球状,经选区电子衍射(SAED)和EDS分析,确定为Al11Ce3相,其中粗长块状为初生Al11Ce3相,球状相为共晶Al11Ce3相,与SEM结果保存一致;② 发现Sc、Zr在α-Al与Al11Ce3相界面处富集,若是SEM能谱的话,不一定能检测到这一现象。第二部分:Al3(Sc,Zr)沉淀硬化作用对合金热稳定性的影响图8. 不同Sc/Zr添加量的Al-15Ce合金在高温下热暴露后的显微硬度。图8. 不同Sc/Zr添加量的Al-15Ce合金在高温下热暴露后的显微硬度。(a) 300 ℃; (b) 400℃。为了进行比较,选择了商业的ZL205和ZL101合金来评估在300℃和400℃的热稳定性。图8 体现的主要就是一个目的:高含量Sc/Zr的合金能有效提高合金的显微硬度,主要是由于Al11Ce3相的稳定性和富含Sc/Zr相的沉淀硬化作用。问题来了:富含Sc/Zr相如何表征?答:用透射电镜(TEM)最为合适不过了,一方面可通过选区电子衍射来确认物相,另一方面可通过明暗场来观察富含Sc/Zr相的形态尺寸。图9. TEM图像显示了0.23Sc-0.16Zr合金中的Al3(Sc,Zr)沉淀图9. TEM图像显示了0.23Sc-0.16Zr合金中的Al3(Sc,Zr)沉淀(a)Al3(Sc,Zr)沉淀的形态;(b)(a)中A点标记的Al3(Sc,Zr)沉淀的HRTEM图像;(c)(b)中方形区域的HRTEM图像和相应的FFT图像;(d) (a)中被包围的区域的EDS结果。图10. 0.23 Sc-0.16 Zr合金在高温下热暴露后的TEM图10. 0.23 Sc-0.16 Zr合金在高温下热暴露后的TEM(a,b)明场和(c,d)暗场图像。(a, c) 300℃5小时;(b, d) 400℃ 20小时。(e)和(f)分别是A点和B点的EDS结果。由TEM结果可知① 存在球状Al3(Sc,Zr)相,通过高分辨快速傅里叶变化(FFT)来确认,球状与之前SEM结论一致② 存在高密度数量的Al3(Sc,Zr)相,且随着暴露时间尺寸会变大透射电镜(TEM)知识拓展①制样方面Al-Ce合金可作为常见铝合金来进行TEM制样。一般是采用离子减薄法,也可采用电解化学双喷,但由于Al-Ce合金中,Al11Ce3相尺寸在微米级,电解双喷制样可能会造成孔洞,这是由于Al11Ce3相与α-Al在双喷液中腐蚀速率不同造成。小编建议制样方式:电解双喷+离子减薄,用使用电解双喷法,但不要腐蚀出孔,仅起到减薄样品作用,然后使用离子减薄法,这样很快便可出洞,也较容易出理想薄区。②数据分析方面难点是未知物相的电子衍射标定,文中有两处分别使用到,其一是通过电子衍射花样确认Al11Ce3相,其二是通过高分辨的傅里叶变化(FFT)确认Al3(Sc,Zr)沉淀相。标定建议:在进行未知物相标定时,可通过能谱数据以及样品自身属性等相关信息,先确定物相的主要元素,然后通过各类软件进行物相卡片搜寻,如xrd、pdf2014、findit等,最后进行物相标定。中材电镜中心提供免费标定网站零基础也能电子衍射标定,三分钟内出结果!免费衍射标定网址:http://www.simr.ac.cn/单晶衍射标定网站教程:① 文字教程② 视频教程标定网站时注意事项:① 网站不能识别tif文件,jpg格式即可,② PDF卡片要包含:a、b、c、α、β、γ和空间群,若PDF卡片未识别晶体结构,也可自行输入标定出来的结果,③ 网站标定结果一般存在多个,任选一个即可(同属于一个晶向族,都是等效的)。中材电镜中心案例赏析更多业务咨询,请扫下方二维码。发布于 2022-11-25 17:59・IP 属地广东合金论文写作毕业论文​赞同 2​​添加评论​分享​喜欢​收藏​申请

ALCE 2022(第十五届)国际汽车轻量化大会暨展览会 参会预登记

ALCE 2022(第十五届)国际汽车轻量化大会暨展览会 参会预登记

报名截止

西语助手|西汉-汉西词典 alce是什么意思_alce的中文解释和发音_alce的翻译_alce怎么读

西语助手|西汉-汉西词典 alce是什么意思_alce的中文解释和发音_alce的翻译_alce怎么读

西语助手

法语助手

德语助手

西语助手

欧路英语

每日一句:¿Alguna vez te has detenido a pensar y te olvidaste de volver a comenzar?

首页西语助手软件

每日西语听力

西语AI写作

西语在线翻译

西语课堂

背单词

支持西汉-汉西词典查询 西语变位反查 西语例句搜索

词典

例句

变位

送福利!官方双语翻译+外教配音朗读!想读漫威大电影《蜘蛛侠:英雄无归》同名双语小说,请戳这里>>

词条纠错X

alce

您还没有登录,点这里登录或注册

登录后,您可以提交反馈建议,同时可以和手机、电脑同步生词本。

在西汉-汉西词典中发现10个解释错误,并通过审核,将获赠「西语助手」授权一个

alce

专四

音标:['alθe]发音

全球

有2个发音

女阿根廷

赞踩

男墨西哥

赞踩

生词本:

添加笔记:

有奖纠错

| 划词

西汉-汉西词典

西语百科

近反义词

西西词典

西语维基词典

西英词典

全文检索

西汉-汉西词典

m. 1. s.de alzar. 2. [古巴] 收砍倒的甘蔗. 3. 【动】驼. no dar ~ [洲普塔河流] 使不停顿.

近反义词

近义词anta,  ante,  danta,  wapití联想词ciervo;levante东;oso熊;venado【动】;cuerno角;jabalí【动】野猪;cazador狩猎的;carnero绵羊;lobo狼;águila鹰;cuervo鸦,乌鸦;

历史记录

生词本

关注微博

反馈问题

关注我们的微信

下载手机客户端

赞助商链接

西班牙语助手《西班牙语助手》是专业的西语学习软件。提供了完整详尽的西汉-汉西词典、西语变位参考、西语百科全书。是西语学习者必备的工具。www.esdict.cn

《西班牙语课堂》上线啦在西班牙语课堂快速找到适合自己的西班牙语学习课程www.esdict.cn/course

划词翻译

详细解释

您还没有登录,点这里登录或注册

生词本和学习记录“云”同步,支持网站、电脑版和手机客户端。

false

广告联系|

意见反馈|

合作伙伴|

关于西班牙语在线词典|手机版网站 | 西语热词榜| HTTPS| AI英文写作| Rédiger多语言写作

欧路软件 ©2024 词库版本20240228 沪ICP备08016489号 沪公网安备 31010702001492号

ALCE 2020分会场:铝合金材料 - 中国汽车工程学会

ALCE 2020分会场:铝合金材料 - 中国汽车工程学会

EN

触屏版

010-50911009

团体会员登录

个人会员登录

加入个人会员

加入团体会员

52929

学生会员

30494

普通会员

173

高级会员

79

会士

15

副理事长单位

45

常务理事单位

122

理事单位

1983

普通会员单位

首页

关于学会

学会简介学会章程理事会秘书处领导分支机构人才招聘热点问题联系我们

活动计划

学术活动

科普活动

人才培训

工作会议

科普活动

大学生方程式系列赛事

巴哈大赛

未来汽车工程师

青少年汽车无限创意征集活动

科学普及

国汽战略院

智能网联燃料电池协会电动汽车轻量化国汽战略院其他联盟GEF项目科技成果评价

技术标准

人才培养

工程师能力评价

职业教育培训与认证

科技奖励

期刊出版

《Automotive Innovation》

《汽车工程》

《汽车之友》

会员服务

服务一览

知识中心

科创中国汽车协同中心

产业链

会员通讯录

会员微信群

雇主品牌

知识中心

党建强会

中央和上级有关精神学会党建

首页

> 学会动态 > 学会动态

ALCE 2020分会场:铝合金材料

发布时间:2020-09-22

来源:中国汽车工程学会

2020年第十四届国际轻量化大会在扬州举行,国内外汽车领域专家学者及客商齐聚明月湖畔,共同研讨汽车轻量化会议的发展。铝合金分会场今年依旧是大咖云集,来自不同领域的专家带来了国际汽车铝合金应用最新研究成果,在此与业内人士进行交流。

本会场由诺贝丽斯中国汽车研究院院长孙黎主持,大会主旨为:聚焦车用铝合金的应用现状,交流探讨车用铝合金在结构设计优化,非热处理下的强韧调控,大型复杂件的精度控制,挤压铸造的组织致密性以及各种新型先进真空压铸、差压铸造技术等方面的最新进展,以达到促进企业技术更新,加快汽车行业轻量化进程的目的。

诺贝丽斯中国汽车研究院 孙黎院长

 

苏州大学张海教授,报告题目:“新能源汽车用高强韧铝合金材料的开发及应用”,该报告介绍了国内外汽车轻量化用铝合金新材料的开发及应用现状,包括新型的汽车板材,高强韧高精度挤压型材以及高强高韧铸造铝合金材料。提出了今后汽车用铝合金材料的开发方向。

苏州大学 张海教授

 

东风汽车集团有限公司秦兴国主任,报告题目:“底盘用铝合金典型零部件性能分析”,该报告介绍了底盘用铝合金的发展趋势,副车架的用材及工艺,底盘铝合金的焊接要求,并提出了铝合金材料副车架的开发应用。

东风汽车集团有限公司秦兴国主任

 

西北工业大学李新雷教授,报告题目:“大型复杂薄壁铝合金铸件控压成型关键技术及应用”,该报告介绍了西北工大在大型复杂铝合金高质量高精度铸造技术领域的研究成果,突破了一系列关键技术,解决了大型复杂构件的尺寸精度控制难题。该技术不仅可应用在航天航空,同时也可应用在汽车轻量化零部件的制备。

西北工业大学李新雷教授

 

中信戴卡股份有限公司刘海峰主任,报告题目:“后轻量化时代的轻合金铸造面临的挑战和竞争策略”,该报告的主要观点是汽车轻量化不单纯等于轻质合金代替钢,而是在不断地开发新型高强韧轻质合金材料及铸造工艺的同时,如何正确优化设计达到钢和轻质合金材料组合的混合解决方案。

中信戴卡股份有限公司刘海峰主任

 

上海交通大学付彭怀教授,报告题目:“商用车用轻质高强压铸结构件设计与开发”,该报告主要观点是:1)汽车轻量化对材料的新需求是以钢为主向多材料混合发展,钢以外的材料以铝镁合金为主,介绍铝合金的非热处理铸件方法。2)轻量化设计思路,以铝(镁)代钢,以铸代锻,因此开发高强韧非热处理铸造铝合金材料及加工工艺是今后的方向之一。3)介绍了交大的几款新材料及应用。

上海交通大学付彭怀教授

 

帕盛博(苏州)软件科技有限公司渠立欢工程师,报告题目:“薄壁化铸造铝合金工艺模拟技术与案例分析”,该报告介绍了不同结构集成铸件的技术方法原理、结构原理、集成原理及项目的实施方案和技术路线,并举例横梁进行模拟分析,开发了一种汽车顶部横梁钣金件减重的方法。

帕盛博(苏州)软件科技有限公司渠立欢工程师

 

铝合金因其性能和成本的优势,是汽车轻量化最优选的应用材料。进一步推进铝技术的创新有利于加快轻量化速度,国内已取得一定的成就,但车用铝的占比仍较低,需行业内多进行交流合作,促进汽车用铝程度提高。

0

0

大家都在看

1

2024 FSC local rules

2024-03-04

2

关于开展锂离子动力电池及电化学测试培训的通知

2024-02-19

3

关于举办2024汽车科技创新与成果转化大会的第一轮通知

2024-02-22

4

寻找“闪闪发光的她”女性科技工作者会员活动的通知

2024-03-04

5

关于开展2024年度汽车工程师工程能力评价工作的通知

2024-03-06

6

2024赛季世界大学生方程式赛事正式拉开序幕

2024-03-07

7

关于“第七届中国汽车工程学会汽车测试技术分会年会”论文征集的通知

2024-02-26

8

关于2024年度中国汽车工程学会科学技术奖提名工作的通知

2024-03-04

9

中国汽车工程学会2024年学术活动第一批招标公告

2024-03-01

10

重要通知|关于举办“2024(第十一届)中国轻量化车身会议” 的通知

2024-02-27

技术社群

查看更多 >>

16597

常规汽车技术

李宏亮刚刚加入该技术社群

10979

新能源汽车技术

强磊刚刚加入该技术社群

6717

智能网联汽车技术

刘晓伟刚刚加入该技术社群

分支机构

汽车制造分会汽车产品分会汽车经济发展研究分会汽车应用与服务分会汽车技术教育分会汽车材料分会汽车现代化管理分会汽车发动机分会专用车分会矿用汽车分会摩托车分会电动汽车分会汽车车身技术分会低碳燃料与氢动力汽车技术分会汽车智能交通分会汽车燃料与润滑油分会汽车非金属材料分会汽车电子技术分会汽车安全技术分会汽车环境保护技术分会汽车转向技术分会越野车技术分会汽车测试技术分会工程建设与装备技术分会涂装技术分会货运装备技术分会悬架技术分会振动噪声分会齿轮技术分会房车与营地工程技术分会技术管理分会汽车防腐蚀老化分会汽车可靠性技术分会电器技术分会汽车空气动力学分会知识产权分会电磁兼容分会汽车灯光分会汽车热系统分会尺寸工程分会底盘集成技术分会汽车先进动力系统分会智能底盘分会汽车传感器分会汽车基础软件分会智能网联汽车系统架构分会飞行汽车分会智能网联汽车安全分会汽车供应链创新分会(筹)汽车火灾安全技术分会 科技成果评价及转化工作委员会科技奖励工作委员会标准化工作委员会人才工作委员会青年工作委员会智能共享出行工作委员会数字化与智能制造工作委员会

友情链接

中国科学技术协会

科创中国

科普中国

创新资源共享平台

会员服务

知识中心

资源平台

产业链

会员通讯录

会员微信群

雇主品牌

版权所有 © 中国汽车工程学会 京ICP备13022631号-10 中华人民共和国社会团体登记证/社证字第4348号/社团代码:50000225-6

ALCE 2020分会场:轻量化设计 - 中国汽车工程学会

ALCE 2020分会场:轻量化设计 - 中国汽车工程学会

EN

触屏版

010-50911009

团体会员登录

个人会员登录

加入个人会员

加入团体会员

52929

学生会员

30494

普通会员

173

高级会员

79

会士

15

副理事长单位

45

常务理事单位

122

理事单位

1983

普通会员单位

首页

关于学会

学会简介学会章程理事会秘书处领导分支机构人才招聘热点问题联系我们

活动计划

学术活动

科普活动

人才培训

工作会议

科普活动

大学生方程式系列赛事

巴哈大赛

未来汽车工程师

青少年汽车无限创意征集活动

科学普及

国汽战略院

智能网联燃料电池协会电动汽车轻量化国汽战略院其他联盟GEF项目科技成果评价

技术标准

人才培养

工程师能力评价

职业教育培训与认证

科技奖励

期刊出版

《Automotive Innovation》

《汽车工程》

《汽车之友》

会员服务

服务一览

知识中心

科创中国汽车协同中心

产业链

会员通讯录

会员微信群

雇主品牌

知识中心

党建强会

中央和上级有关精神学会党建

首页

> 学会动态 > 学会动态

ALCE 2020分会场:轻量化设计

发布时间:2020-09-22

来源:中国汽车工程学会

9月22日,轻量化设计会议在扬州召开,会议由达索系统(上海)信息技术有限公司大中华区企业客户事业部高级销售经理于乃泉主持,汽车轻量化技术创新战略联盟专家委主任、吉林大学教授王登峰,达索系统(上海)信息技术有限公司CATIA产品部行业流程顾问徐建斌,中国汽车技术研究中心有限公司数据资源中心材料部部长刘雪峰,东风日产乘用车公司技术中心车身开发部工程师肖成林,上汽集团技术中心内外饰部技术管理经理徐祥合,北京新能源汽车股份有限公司轻量化技术部高级经理田宇黎,中国第一汽车股份有限公司研发总院底盘开发所悬架开发主任王仕伟,共7位嘉宾带来了各自的最新研究成果,与来自各大主机厂轻量化专家70余人探讨交流。

达索系统(上海)信息技术有限公司大中华区企业客户事业部高级销售经理于乃泉主持

 

会议现场

 

碳纤维是汽车减重的关键手段,汽车轻量化技术创新战略联盟专家委主任、吉林大学教授王登峰围绕“碳纤维复合材料组装车轮结构-连接-性能一体化轻量化设计”进行了精彩的分享,探讨了碳纤维复合材料轮辋与铝合金轮辐组装式车轮结构设计、性能分析和制造工艺的关键技术。针对碳纤维复合材料轮辋结构特点,提出了“三段对称堆叠式” 结构铺层设计方案,建立了碳纤维复合材料轮辋自由尺寸、变厚度铺层顺序多目标协同优化的设计方法。

汽车轻量化技术创新战略联盟专家委主任、吉林大学教授王登峰分享

 

轻量化不限于产品的开发,同时需要系统软件的支持,达索系统(上海)信息技术有限公司的CATIA产品部行业流程顾问徐建斌,针对“CATIA SFE模块化参数化数据库在整车轻量化中的应用思路及案例”,结合多家企业成熟的模块化参数化应用案例,分享了达索针对汽车轻量化的丰富解决方案。

达索系统(上海)信息技术有限公司CATIA产品部行业流程顾问徐建斌分享

 

除了系统软件的支持,轻量化同时离不开大数据,中国汽车技术研究中心有限公司数据资源中心材料部部长刘雪峰,基于能政策趋势和轻量化意义,从数据挖掘的整车重量预测研究、汽车重量标准化管控和关键零部件重量及用材趋势三方面,在“汽车轻量化与典型零部件用材分析研究”分享了自己的独到观点。

中国汽车技术研究中心有限公司数据资源中心材料部部长刘雪峰分享

 

日系车一直是轻量化精细化设计的典范,东风日产乘用车公司技术中心车身开发部工程师肖成林,借助“启辰汽车VSA 车身平台构架开发与工程应用” 的案例,分享平台化开发的流程、平台竞争力的分析、车身通用化策略等轻量化设计管控方式,追求车身结构设计在性能、重量和成本之间的均衡。

东风日产乘用车公司技术中心车身开发部工程师肖成林

 

复合材料凭借密度低、比强度和比模量大,在汽车上应用越来越广泛,上汽集团技术中心内外饰部技术管理经理徐祥合从热固性基体碳纤维复合材料的冲击性能和热塑性基体碳纤维复合材料的冲击性能两方面,分享“碳纤维复合材料的冲击性能研究”的研究成果。

上汽集团技术中心内外饰部技术管理经理徐祥合分享

 

电池包作为新能源汽车的重量主要占比部分,是新能源汽车轻量化的首要攻克方向,北京新能源汽车股份有限公司轻量化技术部高级经理田宇黎,以“新能源汽车动力电池包轻量化开发”为题,结合新能源汽车电池发展趋势和行业轻量化技术路线,分享北汽电池包轻量化开发的宝贵经验。

北京新能源汽车股份有限公司轻量化技术部高级经理田宇黎分享

 

中国第一汽车股份有限公司研发总院底盘开发所悬架开发主任王仕伟,以“一汽红旗轿车的底盘轻量化技术应用”为题,分享红旗底盘轻量化产品开发历程,以及底盘轻量化产品的现状,总结底盘轻量化技术的难点和未来应用构想。

中国第一汽车股份有限公司研发总院底盘开发所悬架开发主任王仕伟分享

 

本次会议聚焦乘用车轻量化技术,从大数据支持、系统模块化参数化分析、产品结构设计、碳纤维及铝材料的应用方面,分享现阶段轻量化研究成果,深入交流探讨未来轻量化发展方向。

 

 

 

0

0

大家都在看

1

关于2024年度中国汽车工程学会科学技术奖提名工作的通知

2024-03-04

2

关于开展2024年度汽车工程师工程能力评价工作的通知

2024-03-06

3

【圆满成功】汽车轻量化技术创新战略联盟多材料连接技术工作委员会2024年启动会

2024-03-06

4

第二期部分重点汽车零部件企业对接交流会在国汽轻量化顺利召开

2024-02-27

5

中汽学会组织收看“两会”盛况

2024-03-05

6

关于“第七届中国汽车工程学会汽车测试技术分会年会”论文征集的通知

2024-02-26

7

【国际交流】日本复合材料企业代表团到访国汽轻量化

2024-03-04

8

通知|关于举办一体化热成形零件设计与开发技术交流会的通知

2024-02-27

9

重要通知|关于举办“2024(第十一届)中国轻量化车身会议” 的通知

2024-02-27

10

上海库萨科技有限公司加入中汽学会团体会员

2024-02-29

技术社群

查看更多 >>

16597

常规汽车技术

李宏亮刚刚加入该技术社群

10979

新能源汽车技术

强磊刚刚加入该技术社群

6717

智能网联汽车技术

刘晓伟刚刚加入该技术社群

分支机构

汽车制造分会汽车产品分会汽车经济发展研究分会汽车应用与服务分会汽车技术教育分会汽车材料分会汽车现代化管理分会汽车发动机分会专用车分会矿用汽车分会摩托车分会电动汽车分会汽车车身技术分会低碳燃料与氢动力汽车技术分会汽车智能交通分会汽车燃料与润滑油分会汽车非金属材料分会汽车电子技术分会汽车安全技术分会汽车环境保护技术分会汽车转向技术分会越野车技术分会汽车测试技术分会工程建设与装备技术分会涂装技术分会货运装备技术分会悬架技术分会振动噪声分会齿轮技术分会房车与营地工程技术分会技术管理分会汽车防腐蚀老化分会汽车可靠性技术分会电器技术分会汽车空气动力学分会知识产权分会电磁兼容分会汽车灯光分会汽车热系统分会尺寸工程分会底盘集成技术分会汽车先进动力系统分会智能底盘分会汽车传感器分会汽车基础软件分会智能网联汽车系统架构分会飞行汽车分会智能网联汽车安全分会汽车供应链创新分会(筹)汽车火灾安全技术分会 科技成果评价及转化工作委员会科技奖励工作委员会标准化工作委员会人才工作委员会青年工作委员会智能共享出行工作委员会数字化与智能制造工作委员会

友情链接

中国科学技术协会

科创中国

科普中国

创新资源共享平台

会员服务

知识中心

资源平台

产业链

会员通讯录

会员微信群

雇主品牌

版权所有 © 中国汽车工程学会 京ICP备13022631号-10 中华人民共和国社会团体登记证/社证字第4348号/社团代码:50000225-6