scala — أسئلة مع إجابات

3 الاجابة
عنوان هذا السؤال غريب الأطوار ولكني أريد تحقيقه على النحو التالي. انا املك List من Tasks . من أجل الراحة ، يتم تحديد المهمة على النحو التالي: case class Task(name: String) انا املك TaskStorage سمة مع طريقة تخزين ستستمر في المهمة وإرجاع Try[Task] . لا تحتوي وحدة التخزين الخاصة بي على واجهة برمجة ...
pattern-matching
functional-programming
exception-handling
29.07.2018, 21:53
2 الاجابة
لقد بدأت للتو في محاولة استخدام Scala مع IntelliJ. قمت بإنشاء مشروع جديد وفقًا للتعليمات الواردة في: https://docs.scala-lang.org/getting-started-intellij-track/getting-started-with-scala-in-intellij.html لقد قمت بتثبيت scala 2.12.6 باستخدام Homebrew واخترت ذلك عند إنشاء مشروع Scala الجديد في Inte...
intellij-idea
29.07.2018, 20:28
1 إجابة
val xs = Iterator .from(1) .dropWhile(_ % 2 != 0) .takeWhile(_ < 10) .toList val ys = Iterator .from(1) .filter(_ % 2 == 0) .takeWhile(_ < 10) .toList println(xs) println(ys) انتاج: List(2, 3, 4, 5, 6, 7, 8, 9) List(2, 4, 6, 8) لماذا ا؟ كنت أتوقع نفس الناتج من كليهما. ...
iterator
functional-programming
filter
29.07.2018, 18:32
1 إجابة
أحاول قراءة كائن Jason من URL وأحاول التحليل اللغوي ، عندما أفعل ذلك ، يتم إرجاع بلا ، هل يمكن لأي شخص مساعدتي هنا. URL DATA: col = """{"column1":"1","column2":"2"}""" منطق: import scala.util.parsing.json.JSON._ for (line <- Source.fromURL("/u/r/l").getLines) { try { val xrp=line.split("=")(1) ...
apache-spark
apache-spark-sql
29.07.2018, 17:42
1 إجابة
لدي نموذج المجال التالي وتعريفات JsonFormat / JsonReader: import spray.json._ case class User(name: String) case class ValueResponse[T](value: T) case class ValueListResponse[T](values: List[T]) object ApiProtocol extends DefaultJsonProtocol { // some of my entities have JsonFormat but some o...
spray-json
13.07.2018, 19:33
2 الاجابة
أحاول استخدام scalaj-http لإرسال طلب POST لتحميل تويتر. لقد أرفقت وثائق ما يطلبونه للطلب. الجزء الذي أواجه مشكلة فيه هو محاولة تمرير الملف الثنائي الفعلي كمعلمة لـ "الوسائط". يمكنني فقط أن أرى كيف أقوم بعمل postMulti وهو الملف فقط ثم أضف المعلمة ولكن ليس في الواقع تمرير البيانات كمعلمة. v...
http
twitter
13.07.2018, 18:37
2 الاجابة
أواجه مشكلة حيث أحصل على خطأ عندما أحاول تطوير طريقة لإنشاء محاكاة. سجل كلما تلقيت حالة بخلاف 200 وأتلقى "KO". كنت أتساءل عما إذا كان هناك أي حل في حل هذه المشكلة؟ خطأ: scala:8: not found: type ExtraInfo def getExtraInfo(extraInfo : ExtraInfo): String = { الشفرة: def getExtraInfo(e...
automation
performance-testing
scala-gatling
13.07.2018, 18:25
1 إجابة
هذا حول تشغيل Spark / Scala من دفتر ملاحظات Zeppelin. من أجل تعديل التعليمات البرمجية وإعادة تنظيمها بشكل أفضل ، أحتاج إلى استيراد فئات Scala أو الحزم أو الوظائف الموجودة في دفتر الملاحظات ، ويفضل تخطي إنشاء ملف jar (يشبه إلى حد كبير في PySpark). شيء مثل: import myclass حيث يتم تنفيذ "mycla...
apache-spark
apache-zeppelin
13.07.2018, 18:18
1 إجابة
وظيفتي ترجع النوع التالي def someFunction(a:String) = Future[Tuple2[Option[List[Tag]],Option[PagingState]]] أدعو الوظيفة على النحو التالي: val listOptionFuture = someFunction("some string") لا أستطيع الكتابة flatMap منطق ل listOptionFuture . لقد كتبت ما يلي ولكني أتلقى خطأ في الترجمة listOptionFu...
13.07.2018, 18:09
1 إجابة
بعد تشغيل أي مهمة SBT (الترجمة السابقة) يتم تنفيذ scalafmt وينتهي سطر التغييرات على بعض أجهزة الكمبيوتر (معظمها يستخدم نظام التشغيل win). هل من الممكن تعيين نهايات الخط في scalafmt.conf أو بأي طريقة أخرى؟ شكر.
sbt
19.06.2018, 10:21
2 الاجابة
هل يستطيع أحد أن يساعدني في فهم الإعلانين أدناه class Person1(name: String, id: Int) { } class Person2(val name: String, val id: Int) { } val p1 = new Person1("personOne", 1) val p2 = new Person2("personTwo", 2) println(p1.name) // ERROR println(p2.name) // OK!! وأنا أعلم أن المعلمات بشكل افتراضي ...
19.06.2018, 09:19
1 إجابة
كيفية الحصول على الإخراج أدناه من ملف الإدخال عن طريق القراءة كملف rdd. يحتوي rdd على: key1, val1 key1, val2 key2, val1 key2, val2 key2, val3 سيكون الناتج Map[String, List[String]]Map[String,List[String]] = Map(key1-> List(val1, val2), key2 -> List(val1,val2,val3)) لقد فعلت ذلك عن طريق قرا...
apache-spark
19.06.2018, 08:18
1 إجابة
أقوم بحفظ DataFrame مع حواف الرسم البياني في قاعدة بيانات OrientDb. ومع ذلك أحصل على الخطأ التالي: FAILED, exitCode: 15, (reason: User class threw exception: java.lang.RuntimeException: An exception was thrown: Job aborted due to stage failure: Task 0 in stage 96.0 failed 4 times, most recent failu...
orientdb
apache-spark
apache-spark-sql
19.06.2018, 07:57
2 الاجابة
أجد صعوبة في استخراج نطاقات البريد الإلكتروني. لدي أقل من dataframe. +---+----------------+ |id |email | +---+----------------+ |1 |[email protected] | |2 |[email protected] | |3 |[email protected]| +---+----------------+ الآن أريد الحصول على مجال جديد للمجالات التي سأحصل عليها: +---+-----...
dataframe
apache-spark
19.06.2018, 07:39
1 إجابة
أحاول مثال خوارزمية prefixSpan الموضحة أدناه: import org.apache.spark.mllib.fpm.PrefixSpan val sequences = sc.parallelize(Seq( Array(Array(1, 2), Array(3)), Array(Array(1), Array(3, 2), Array(1, 2)), Array(Array(1, 2), Array(5)), Array(Array(6)) ), 2).cache() val prefixSpan = new PrefixSpan()...
apache-spark
apache-spark-sql
apache-spark-mllib
data-mining
19.06.2018, 07:22
فوق
قائمة طعام