spark 安裝配置

最佳參考鏈接

https://opensourceteam.gitbooks.io/bigdata/content/spark/install/spark-160-bin-hadoop26an_zhuang.html

?

Apache Spark1.1.0部署與開發環境搭建   Spark是Apache公司推出的一種基于Hadoop Distributed File System(HDFS)的并行計算架構。與MapReduce不同,Spark并不局限于編寫map和reduce兩個方法,其提供了更為強大的內存計算(in-memory computing)模型,使得用戶可以通過編程將數據讀取到集群的內存當中,并且可以方便用戶快速地重復查詢,非常適合用于實現機器學習算法。本文將介紹Apache Spark1.1.0部署與開發環境搭建。 0. 準備   出于學習目的,本文將Spark部署在虛擬機中,虛擬機選擇VMware WorkStation。在虛擬機中,需要安裝以下軟件: Ubuntu 14.04.1 LTS 64位桌面版 但是ubuntu 的桌面版我安裝以后有問題 所以下載了server版本 然后安裝桌面就可以了http://jingyan.baidu.com/article/64d05a0262b613de55f73b0e.html

參考http://www.cnblogs.com/datahunter/p/4002331.html和http://www.cnblogs.com/datahunter/p/4002331.html

如何為ubuntu server 14.04 安裝圖形界面

  出于學習目的,本文將Spark部署在虛擬機中,虛擬機選擇VMware WorkStation。在虛擬機中,需要安裝以下軟件:

  • Ubuntu 14.04.1 LTS 64位桌面版
  • hadoop-2.4.0.tar.gz
  • jdk-7u67-linux-x64.tar.gz?
  • scala-2.10.4.tgz
  • spark-1.1.0-bin-hadoop2.4.tgz

  Spark的開發環境,本文選擇Windows7平臺,IDE選擇IntelliJ IDEA。在Windows中,需要安裝以下軟件:

  • IntelliJ IDEA?13.1.4?Community Edition
  • apache-maven-3.2.3-bin.zip(安裝過程比較簡單,請讀者自行安裝)

方法/步驟

  1. 1

    首先,ubuntu server版本的安裝這里就不再贅述,基本的還是三個步驟,首先是下載鏡像,然后使用ultraISO刻錄至u盤,最后通過U盤引導進行安裝。安裝過程中,會要求你輸入用戶名和密碼,一定要牢記,因為后續軟件的安裝都需要密碼。

  2. 2

    然后,login進入系統之后,開始進行用戶界面的安裝。首先輸入如下命令:

    sudo apt-get install xinit。安裝時的界面如下所示。

    步驟閱讀
  3. 3

    上述安裝完畢之后,再安裝環境管理器。本人親測安裝的是GNOME。使用如下命令安裝:

    sudo apt-get install gdm

    安裝時的界面如下所示。

    步驟閱讀
  4. 4

    然后,安裝桌面環境。本人親測安裝的是KUbuntu。安裝命令如下:

    sudo apt-get install kubuntu-desktop

    安裝時的界面如下所示。

    步驟閱讀
    步驟閱讀
  5. 5

    網上有人還說要安裝一些必要的包,如新立得軟件包管理器,中文支持等,如果你嫌麻煩,可以不進行安裝。上述安裝完畢之后,直接重啟。重啟完成后,再進入系統,便是圖形界面了,如圖所示。

    步驟閱讀
    步驟閱讀
    END

?

注意事項

  • 一定要保證上述步驟每一個步驟都執行成功,否則會影響最后的結果

1. 安裝JDK

  解壓jdk安裝包到/usr/lib目錄:

1 sudo cp jdk-7u67-linux-x64.gz /usr/lib
2 cd /usr/lib
3 sudo tar -xvzf jdk-7u67-linux-x64.gz
4 sudo gedit /etc/profile

在/etc/profile文件的末尾添加環境變量:

1 export JAVA_HOME=/usr/lib/jdk1.7.0_67
2 export JRE_HOME=/usr/lib/jdk1.7.0_67/jre
3 export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
4 export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

  保存并更新/etc/profile:

1 source /etc/profile

  測試jdk是否安裝成功:

1 java -version

?

2. 安裝及配置SSH

1 sudo apt-get update
2 sudo apt-get install openssh-server
3 sudo /etc/init.d/ssh start

  生成并添加密鑰:

1 ssh-keygen -t rsa -P ""  
2 /root/.ssh/
3 cd /root/.ssh/ 4 cat id_rsa.pub >> authorized_keys

  ssh登錄:

1 ssh localhost

?

3. 安裝hadoop2.4.0

  采用偽分布模式安裝hadoop2.4.0。解壓hadoop2.4.0到/usr/local目錄:

1 sudo cp hadoop-2.4.0.tar.gz /usr/local/
2 sudo tar -xzvf hadoop-2.4.0.tar.gz

  在/etc/profile文件的末尾添加環境變量:

1 export HADOOP_HOME=/usr/local/hadoop-2.4.0
2 export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
3 
4 export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
5 export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

  保存并更新/etc/profile:

1 source /etc/profile

  在位于/usr/local/hadoop-2.4.0/etc/hadoop的hadoop-env.sh和yarn-env.sh文件中修改jdk路徑:

1 cd /usr/local/hadoop-2.4.0/etc/hadoop
2 sudo gedit hadoop-env.sh
3 sudo gedit yarn-evn.sh

hadoop-env.sh:

yarn-env.sh:

  修改core-site.xml:

1 sudo gedit core-site.xml

  在<configuration></configuration>之間添加:

復制代碼
1 <property>
2   <name>fs.default.name</name>
3   <value>hdfs://localhost:9000</value>
4 </property>
5 
6 <property>
7   <name>hadoop.tmp.dir</name>
8   <value>/app/hadoop/tmp</value>
9 </property>
復制代碼

  修改hdfs-site.xml:

1 sudo gedit hdfs-site.xml

  在<configuration></configuration>之間添加:

復制代碼
 1 <property>2   <name>dfs.namenode.name.dir</name>3   <value>/app/hadoop/dfs/nn</value>4 </property>5 6 <property>7   <name>dfs.namenode.data.dir</name>8   <value>/app/hadoop/dfs/dn</value>9 </property>
10 
11 <property>
12   <name>dfs.replication</name>
13   <value>1</value>
14 </property>
復制代碼

  修改yarn-site.xml:

1 sudo gedit yarn-site.xml

  在<configuration></configuration>之間添加:

復制代碼
1 <property>
2   <name>mapreduce.framework.name</name>
3   <value>yarn</value>
4 </property>
5 
6 <property>
7   <name>yarn.nodemanager.aux-services</name>
8   <value>mapreduce_shuffle</value>
9 </property>
復制代碼

  復制并重命名mapred-site.xml.template為mapred-site.xml:

1 sudo cp mapred-site.xml.template mapred-site.xml
2 sudo gedit mapred-site.xml

  在<configuration></configuration>之間添加:

1 <property>
2   <name>mapreduce.jobtracker.address </name>
3   <value>hdfs://localhost:9001</value>
4 </property>

  在啟動hadoop之前,為防止可能出現無法寫入log的問題,記得為/app目錄設置權限:

1 sudo mkdir /app
2 sudo chmod -R hduser:hduser /app

  格式化hadoop:

1 sbin/hadoop namenode -format 

  啟動hdfs和yarn。在開發Spark時,僅需要啟動hdfs:

1 sbin/start-dfs.sh  
2 sbin/start-yarn.sh  

?  在瀏覽器中打開地址http://localhost:50070/可以查看hdfs狀態信息:

?

4. 安裝scala

1 sudo cp /home/hduser/Download/scala-2.9.3.tgz /usr/local
2 sudo tar -xvzf scala-2.9.3.tgz 

  在/etc/profile文件的末尾添加環境變量:

1 export SCALA_HOME=/usr/local/scala-2.9.3
2 export PATH=$SCALA_HOME/bin:$PATH

  保存并更新/etc/profile:

1 source /etc/profile

  測試scala是否安裝成功:

1 scala -version

?

5. 安裝Spark

1 sudo cp spark-1.1.0-bin-hadoop2.4.tgz /usr/local
2 sudo tar -xvzf spark-1.1.0-bin-hadoop2.4.tgz 

  在/etc/profile文件的末尾添加環境變量:

1 export SPARK_HOME=/usr/local/spark-1.1.0-bin-hadoop2.4
2 export PATH=$SPARK_HOME/bin:$PATH

  保存并更新/etc/profile:

1 source /etc/profile

  復制并重命名spark-env.sh.template為spark-env.sh:

1 sudo cp spark-env.sh.template spark-env.sh
2 sudo gedit spark-env.sh

  在spark-env.sh中添加:

1 export SCALA_HOME=/usr/local/scala-2.9.3
2 export JAVA_HOME=/usr/lib/jdk1.7.0_67
3 export SPARK_MASTER_IP=localhost
4 export SPARK_WORKER_MEMORY=1000m

  啟動Spark:

1 cd /usr/local/spark-1.1.0-bin-hadoop2.4
2 sbin/start-all.sh

  測試Spark是否安裝成功:

1 cd /usr/local/spark-1.1.0-bin-hadoop2.4
2 bin/run-example SparkPi

?

6. 搭建Spark開發環境

  本文開發Spark的IDE推薦IntelliJ IDEA,當然也可以選擇Eclipse。在使用IntelliJ IDEA之前,需要安裝scala的插件。點擊Configure:

  點擊Plugins:

  點擊Browse repositories...:

  在搜索框內輸入scala,選擇Scala插件進行安裝。由于已經安裝了這個插件,下圖沒有顯示安裝選項:

  安裝完成后,IntelliJ IDEA會要求重啟。重啟后,點擊Create New Project:

  Project SDK選擇jdk安裝目錄,建議開發環境中的jdk版本與Spark集群上的jdk版本保持一致。點擊左側的Maven,勾選Create from archetype,選擇org.scala-tools.archetypes:scala-archetype-simple:

?  點擊Next后,可根據需求自行填寫GroupId,ArtifactId和Version:

?  點擊Next后,如果本機沒有安裝maven會報錯,請保證之前已經安裝maven:

  點擊Next后,輸入文件名,完成New Project的最后一步:

  點擊Finish后,maven會自動生成pom.xml和下載依賴包。我們需要修改pom.xml中scala的版本:

1 <properties>
2   <scala.version>2.10.4</scala.version>
3 </properties>

  在<dependencies></dependencies>之間添加配置:

復制代碼
 1 <!-- Spark -->2 <dependency>3   <groupId>org.apache.spark</groupId>4   <artifactId>spark-core_2.10</artifactId>5   <version>1.1.0</version>6 </dependency>7 8 <!-- HDFS -->9 <dependency>
10   <groupId>org.apache.hadoop</groupId>
11   <artifactId>hadoop-client</artifactId>
12   <version>2.4.0</version>
13 </dependency>
復制代碼

  在<build><plugins></plugins></build>之間添加配置:

復制代碼
 1 <plugin>2             <groupId>org.apache.maven.plugins</groupId>3             <artifactId>maven-shade-plugin</artifactId>4             <version>2.2</version>5             <executions>6                 <execution>7                     <phase>package</phase>8                     <goals>9                         <goal>shade</goal>
10                     </goals>
11                     <configuration>
12                         <filters>
13                             <filter>
14                                 <artifact>*:*</artifact>
15                                 <excludes>
16                                     <exclude>META-INF/*SF</exclude>
17                                     <exclude>META-INF/*.DSA</exclude>
18                                     <exclude>META-INF/*.RSA</exclude>
19                                 </excludes>
20                             </filter>
21                         </filters>
22                         <transformers>
23                             <transformer
24                                     implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer">
25                                 <mainClass>mark.lin.App</mainClass> // 記得修改成你的mainClass 
26                             </transformer>
27                             <transformer
28                                     implementation="org.apache.maven.plugins.shade.resource.AppendingTransformer">
29                                 <resource>reference.conf</resource>
30                             </transformer>
31                         </transformers>
32                         <shadedArtifactAttached>true</shadedArtifactAttached>
33                         <shadedClassifierName>executable</shadedClassifierName>
34                     </configuration>
35                 </execution>
36             </executions>
37         </plugin>
復制代碼

  Spark的開發環境至此搭建完成。One more thing,wordcount的示例代碼:

復制代碼
 1 package mark.lin //別忘了修改package2 3 import org.apache.spark.{SparkConf, SparkContext}4 import org.apache.spark.SparkContext._5 6 import scala.collection.mutable.ListBuffer7 8 /**9  * Hello world!
10  *
11  */
12 object App{
13   def main(args: Array[String]) {
14     if (args.length != 1) {
15       println("Usage: java -jar code.jar dependencies.jar")
16       System.exit(0)
17     }
18     val jars = ListBuffer[String]()
19     args(0).split(",").map(jars += _)
20 
21     val conf = new SparkConf()
22     conf.setMaster("spark://localhost:7077").setAppName("wordcount").set("spark.executor.memory", "128m").setJars(jars)
23 
24     val sc = new SparkContext(conf)
25 
26     val file = sc.textFile("hdfs://localhost:9000/hduser/wordcount/input/input.csv")
27     val count = file.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_+_)
28     println(count)
29     count.saveAsTextFile("hdfs://localhost:9000/hduser/wordcount/output/")
30     sc.stop()
31   }
32 }
復制代碼

?

7. 編譯&運行

  使用maven編譯源代碼。點擊左下角,點擊右側package,點擊綠色三角形,開始編譯。

?  在target目錄下,可以看到maven生成的jar包。其中,hellworld-1.0-SNAPSHOT-executable.jar是我們需要放到Spark集群上運行的。

?

  在運行jar包之前,保證hadoop和Spark處于運行狀態:

  將jar包拷貝到Ubuntu的本地文件系統上,輸入以下命令運行jar包:

1 java -jar helloworld-1.0-SNAPSHOT-executable.jar helloworld-1.0-SNAPSHOT-executable.jar

  在瀏覽器中輸入地址http://localhost:8080/可以查看任務運行情況:

?

8. Q&A

Q:在Spark集群上運行jar包,拋出異常“No FileSystem for scheme: hdfs”:

A:這是由于hadoop-common-2.4.0.jar中的core-default.xml缺少hfds的相關配置屬性引起的異常。在maven倉庫目錄下找到hadoop-common-2.4.0.jar,以rar的打開方式打開:

  將core-default.xml拖出,并添加配置:

1 <property>
2   <name>fs.hdfs.impl</name>
3   <value>org.apache.hadoop.hdfs.DistributedFileSystem</value>
4   <description>The FileSystem for hdfs: uris.</description>
5 </property>

  再將修改后的core-default.xml替換hadoop-common-2.4.0.jar中的core-default.xml,重新編譯生成jar包。

?

Q:在Spark集群上運行jar包,拋出異常“Failed on local exception”:

A:檢查你的代碼,一般是由于hdfs路徑錯誤引起。

?

Q:在Spark集群上運行jar包,重復提示“Connecting to master spark”:

A:檢查你的代碼,一般是由于setMaster路徑錯誤引起。

?

Q:在Spark集群上運行jar包,重復提示“Initial job has not accepted any resource; check your cluster UI to ensure that workers are registered and have sufficient memory”:

A:檢查你的代碼,一般是由于內存設置不合理引起。此外,還需要檢查Spark安裝目錄下的conf/spark-env.sh對worker內存的設置。

?

Q:maven報錯:error: org.specs.Specification does not have a constructor

A: 刪除test目錄下的文件,重新編譯。

?

9. 參考資料

?[1] Spark Documentation from Apache. [Link]

?

轉載于:https://www.cnblogs.com/canyangfeixue/p/4198288.html

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/257818.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/257818.shtml
英文地址,請注明出處:http://en.pswp.cn/news/257818.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

《大數據原理:復雜信息的準備、共享和分析》一一2.5 在標識符中嵌入信息:不推薦...

2.5 在標識符中嵌入信息&#xff1a;不推薦大多數標識符不是純粹的隨機數&#xff0c;它們通常含有一些可由熟悉標識系統的人解釋的嵌入信息。例如&#xff0c;標識符中可以嵌入姓的前三個字母&#xff0c;同樣&#xff0c;標識符中也可以嵌入出生年份的最后兩位數字。標識符中…

python基礎知識-列表,元組,字典

列表&#xff08;list&#xff09; 賦值方法&#xff1a; l [11,45,67,34,89,23] l list() 列表的方法&#xff1a; 1 #!/usr/bin/env python2 3 class list(object):4 """5 list() -> new empty list6 list(iterable) -> new list initial…

車站計算機聯鎖系統的仿真設計,車站計算機聯鎖仿真設計.doc

車站計算機聯鎖仿真設計2012 屆 交通運輸 學院專 業學 號 2008學生姓名指導教師完成日期 2012年 月日計算機聯鎖是保證車站內列車和調車作業安全&#xff0c;提高車站通過能力的一種信號設備。設計以沙盤模型為根據&#xff0c;練習制作聯鎖信號圖表&#xff0c;使用Visual Bas…

如何解決機器學習中的數據不平衡問題?

在機器學習任務中&#xff0c;我們經常會遇到這種困擾&#xff1a;數據不平衡問題。 數據不平衡問題主要存在于有監督機器學習任務中。當遇到不平衡數據時&#xff0c;以總體分類準確率為學習目標的傳統分類算法會過多地關注多數類&#xff0c;從而使得少數類樣本的分類性能下降…

ubuntu每次登陸都用root賬號登陸

sudo -s 進入 root 用戶權限模式 vi /etc/lightdm/lightdm.conf [SeatDefaults] greeter-sessionunity-greeter user-sessionUbuntu greeter-show-manual-logintrue allow-guestfasle 重啟后再登陸就會 直接用root登陸了 版權聲明&#xff1a;本文為博主原創文章&#xff0c;未…

js-BOM

私有變量&#xff1a; 1、在一個實例上調用setName&#xff08;&#xff09;會影響所有的實例 BOM&#xff1a; 1、全局變量不能通過delete操作符刪除&#xff0c;而直接在window對象上定義的屬性可以 2、嘗試訪問為聲明的變量會拋出錯誤&#xff0c;但通過查詢window對象&…

計算機組成實驗v代表什么,2014計算機組成原理實驗指導V1.3.docx

文檔介紹&#xff1a;實驗一運算器組成實驗實驗目的熟悉Logisim軟件平臺。掌握運算器基本工作原理掌握運算溢出檢測的原理和實現方法;理解有符號數和無符號數運算的區別;理解基于補碼的加/減運算實現原理;熟悉運算器的數據傳輸通路。實驗環境Logisim是一款數字電路模擬的教育軟…

四大技巧輕松搞定云容器

云容器技術&#xff0c;作為傳統虛擬化管理程序的一種替代品&#xff0c;正稱霸著云市場。容器是輕量級的&#xff0c;并提供增強的便攜性&#xff0c;允許應用在平臺之間遷移&#xff0c;而不需要開發者重做或重新架構應用。但是&#xff0c;盡管其好處讓開發人員感到驚嘆&…

Android 圖文混排 通過webview實現并實現點擊圖片

在一個開源項目看到是用的webview 實現的 1. 這是在asset中的一個模板html <html> <head> <title>News Detail</title> <meta name"viewport" content"widthdevice-width, minimum-scale0.5, initial-scale1.2, maximum-scale2.0…

h5engine造輪子

基于學習的造輪子&#xff0c;這是一個最簡單&#xff0c;最基礎的一個canvas渲染引擎&#xff0c;通過這個引擎架構&#xff0c;可以很快的學習canvas渲染模式&#xff01; 地址&#xff1a;https://github.com/RichLiu1023/h5engine 這是一個比較有意思的h5渲染引擎&#xff…

計算機硬件選型報價,組裝電腦硬件該怎么選擇?這幾個硬件要舍得花錢,千萬別買錯了!...

原標題&#xff1a;組裝電腦硬件該怎么選擇&#xff1f;這幾個硬件要舍得花錢&#xff0c;千萬別買錯了&#xff01;組裝電腦是多硬件組合的產物&#xff0c;每一個硬件對于電腦的性能都是有影響的&#xff0c;影響的大小與電腦的硬件有直接關系&#xff0c;有些硬件就要舍得花…

2017 省賽選撥 想打架嗎?算我一個!所有人,都過來!(3) 遞推 斐波拉數列的應用...

想打架嗎&#xff1f;算我一個&#xff01;所有人&#xff0c;都過來&#xff01;(3) Submit Page Summary Time Limit: 2 Sec Memory Limit: 128 Mb Submitted: 28 Solved: 9 Description 現在《爐石傳說》這款卡牌游戲已經風靡全球。2015年加入環境的“…

UITableViewCell中cell重用機制導致內容重復的方法

UITableView繼承自UIScrollview,是蘋果為我們封裝好的一個基于scroll的控件。上面主要是一個個的UITableViewCell,可以讓UITableViewCell響應一些點擊事件&#xff0c;也可以在UITableViewCell中加入UITextField或者UITextView等子視圖&#xff0c;使得可以在cell上進行文字編輯…

高級會計師計算機考試中級,會計師需要計算機等級考試嗎

塵伴考證達人06-19TA獲得超過671個贊[color#000][font宋體][size3][alignleft]廣東省高級會計師評審職稱外語&#xff0c;執行《關于調整完善我省職稱外語政策的通知》(粵人發〔2018〕120號)[/align][alignleft]三、報考職稱外語考試的等級要求[b][size3](一)申報高教、科研、衛…

一 手游開發工具cocos2d-x editor初識

可學習的demo&#xff1a; 7個實戰項目 flappybird&#xff08;飛揚小鳥&#xff09;、popstar&#xff08;消滅星星&#xff09;、fruitninja&#xff08;水果忍者&#xff09;、2048&#xff08;數度消除&#xff09;。 moonwarriors&#xff08;月亮戰神&#xff09;、frui…

Provisioning Services 7.6 入門到精通系列之七:創建虛擬磁盤

在上一章節完成了主目標設備的準備&#xff0c;今天將揭曉如何通過映像向導創建虛擬磁盤。1.1 點擊開始菜單”映像向導”1.2 在映像向導點擊”下一步“1.3 輸入PVS服務器信息&#xff0c;下一步1.4 點擊”新建虛擬磁盤”1.5 輸入新虛擬磁盤的相關信息&#xff0c;下一步1.6 配置…

在使用多表的查詢顯示的時候 建議使用視圖

如果沒有查詢只是需要第一次顯示的話用linq表達式就可以了&#xff0c;如果還涉及到查詢的話&#xff0c;linq表達式就很麻煩了&#xff0c;我還不會。所以我們用視圖做查詢就方便很多了。轉載于:https://www.cnblogs.com/woshijishu3/p/4207567.html

大型網站技術架構03

永無止境&#xff1a;網站的伸縮性架構 1. 所謂網站的伸縮性是指不需要改變網站的軟硬件設計&#xff0c;僅僅通過改變部署的服務器數量就可以擴大或者縮小網站的服務能力。 2. 網站架構的伸縮性設計&#xff1a; 1). 不同功能進行物理分離實現伸縮性&#xff1a;通過增加服務器…

全國職業院校技能大賽軟件測試題目,我校喜獲2018全國職業院校技能大賽“軟件測試”賽項一等獎...

九江職院新聞網訊(信息工程學院)5月31日&#xff0c;從2018全國職業院校技能大賽傳來喜訊&#xff0c;由我校信息工程學院教師艾迪、朱虎平指導&#xff0c;學生郭星宏、賴閩、吳宗霖組成的競賽團隊&#xff0c;代表江西省在高職組“軟件測試”賽項中榮獲團體一等獎的佳績。為積…

兩個數組a[N],b[N],其中A[N]的各個元素值已知,現給b[i]賦值,b[i] = a[0]*a[1]*a[2]…*a[N-1]/a[i];...

轉自&#xff1a;http://blog.csdn.net/shandianling/article/details/8785269 問題描述&#xff1a;兩個數組a[N]&#xff0c;b[N]&#xff0c;其中A[N]的各個元素值已知&#xff0c;現給b[i]賦值&#xff0c;b[i] a[0]*a[1]*a[2]…*a[N-1]/a[i]&#xff1b; 要求&#xff1a…